GeForce 8-Karten erhalten PhysX-Support

Hat die 9600er nicht auch nur 128bit SI?
Von den Shadern her machts Sinn.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es kommt immer druaf an ob man ein Shader overhead hat. bei der GS hängt das ganze von der Leistungsfähigkeit der ROP's an.

Bei der 8800 GTS 512 ist es ja klar, eine 8800 GT ist genausoschnell wie eine GTS 512 wenn man den Core Takt auf 650 setzt. Also bringen die 12 Shader mehr der GTS 512 nix. Es verpufft einfach. Aber da die Shader für Physik nur rechnen und nicht dafür die ROP's brauchen macht für Physik eine 8800 GTS 512 mehr sinn.

Wenn 3D und Physik auf einer Karte läuft, braucht man kein Prophet zu sein um zu sagen die 8800 GTS 512 stampft die 8800 GT, 8800 GTX und Ultra in den Boden ein.

Und noch 2 weitere sachen machen auf einmal sinn:

PCIe 2.0 bei der 8800 GT/GTS 512;
Und auch die 9800 GX2 <= erst recht die mit 2xG92 (GTS 512)

In diesem Fall hat man ja auch nur mit 16 ROP's ein optimum erreicht. So zu sagen Hardwarereserve für Physik on chip.

Ohne FanBoy gehabe losstreten zu wollen.

Der R600 von ATi wehre die bessere basis für Physik gewesen. Der R600 hat eine hähere mathematische Rechenleistung als alles was NVidia vorgebracht hat.

http://ati.amd.com/products/streamprocessor/specs.html
 
Zuletzt bearbeitet:
naja, ich bin mal gespannt wann sich da etwas tut. letztenendes wird es dann doch nur wieder so ein halbherziges feature das mit einschränkungen dann doch nur auf gf9 karten laufen wird ;)
würde mich trotzdem freuen wenn es für gf8 rauskommt und dann bitte auch so das es auf non-sli boards mit 2 unterschiedlichen gf8 grafikkarten funktioniert, dann bekommt meine kleine was zu tun :P - zumindest in einigen wenigen spielen..
aber es ist klar das wenn nvidia das von sich aus unterstützt sicher mehr spielehersteller auf diese technologie setzen werden.
 
IGP MB wehre türlich auch für einen HardCore Gamer cool. Weil auch die nächsten Jahre wird man nicht die Rechenleistung einer 8600 karte extra für die Physik brauchen. Die Physik wird in etwa 64 MB vom mitlerweile 2048 MiB Ram fressen, das kann jeder verschmerzen.

Im Prinzip kann jede DX10 Karte die Ageia Physik berechnen, das problem war das Ageia ihr eigenes Produkt gepusht hat und es daher keine Lizenzen gab bis auf ein paar Software Physik's für die CPU. Die Ageia Hardware an sich ist überflüssig da von der Rechenleistung ehe schon in den meisten neuen Rechnern vorhanden.
 
Zuletzt bearbeitet:
Muß ich dich leider enttäuschen. Mit 64 Shader und 16 ROP's ist die Karte sehr ausgeglichen. Wenn Physik noch dazukommen soll dann wird die Karte an Shader knappheit eingehen. Die 3870 hat mehr mathematische Rechenleistung wie schon gesagt, da sie ja auch von dem R600 abstamm.
Doch soweit wird es nicht kommen weil das jetzt auch wieder ein feature ist das NVidia für sich alleine beanspruchen darf. Wenn man intelligent ist koppelt man in der Software Physik nur auf einem NV Mainboard und alle gucken in die Röhre oder kaufen sich ein NV Board.

Ich hab schon ein Werbevorschlag:

"NVIDIA nForce® xxxi SLI™ media and communications processors (MCPs) are the foundation for the world's ultimate PhysX* gaming PC"




































*works only with Geforce 8 Family. Recommended 2x8800 GT/GTS512 SLI or 9800 GX2 :asthanos:
 
Zuletzt bearbeitet:
(...)eine 9600GT die sogar einer 3870 überlegen ist(...)

In dem von Dir verlinkten Review wird eine uebertaktete 9600 GT mit einer HD 3870 bei Standardtakt verglichen - und mit einer Ausnahme (ET:QW) sind die Karten praktisch gleichwertig: bei niedrigen Aufloesungen liegt zumeist die nVIDIA, bei hohen zumeist die AMD / ATI marginal vorne. Die Verwendung einer nicht uebertakteten 9600 GT (oder umgekehrt einer uebertakteten HD 3870) sollte diese Unterschiede noch weiter egalisieren.

Unterm Strich also, soweit nach einem Review beurteilbar, gleiche Leistung fuer´s gleiche Geld in einem Segment, in dem nVIDIA seit fast einem halben Jahr keine echte Option anzubieten hatte.
 
Das wissen wir erst, wenn sie erhaeltlich ist. Vermutlich aber nichts, was AMD nicht mit den 700ern wieder ausgleichen koennte.
 
um mal mit in die Diskusion mit einzusteigen...

Wenn man sich mal die Sache von der anderen Seite betrachtet, also aus Sicht der CPU Hersteller dann fällt mir zumindest auf, das theoretisch sowohl für AMD als auch Intel diese Physikgeschichte auf der Graka ein Dorn im Auge werden könnte...

Nämlich genau aus dem Punkt das gerade bei Games die Physikberechnung ein riesengroßer Teil ist, welcher eine CPU mit mehr als einem Kern auslastet. Oder anders gesagt, die Physikberechnung ist überwiegend in derzeitigen Games dafür verantwortlich, das überhaupt viel mehr als ein Kern ausgelastet werden kann. Sprich fällt die Physikberechnung in der CPU weg, sind wir wieder an dem Punkt, das mehr als zwei Cores wirklich Null bringen.
Sozusagen braucht bei den Gamern keiner mehr Quad oder was weis ich wieviele Core CPUs.


Schlussendlich ist der Schritt für den Kunden an sich eigentlich ne gute Sache, wäre da nicht das Problem, das man Rechenleistung einer Graka verliert. Schließlich hat nicht jeder ne 8800GTX/Ultra und kann da ggf. ein paar FPS verschmerzen, wenns aber um ne 8600 oder gar nur 8500 geht, dann zählt jedes bisschen Leistung um die Games brauchbar darzustellen... Und dazu kommt noch, die zusätzlichen Effekte welche sichtbar werden, brauchen wiederum auch noch 3D Rechenleistung, schließlich müssen diese auch dargestellt werden.
Klar man könnte auch ne zweite Graka zukaufen, aber mal ehrlich, ich würde in dem Punkt lieber ne Physikkarte zukaufen, welche auf ihr Anwendungsgebiet spezialisiert ist und extrem effizient arbeitet, als ne Stromfressende und teure Graka, welche eigentlich für was ganz anderes gedacht ist...

Ich sehe das ganze derzeit noch als Nieschenprodukt, da wie schon angesprochen die Gameentwickler die Lizenz für die Physikengine kaufen müssten aber im Grunde dadurch nicht mehr Games verkauft werden. Und hinzu kommt noch das nicht alle Kunden die Effekte überhaupt nutzen können...
 
Zuletzt bearbeitet:
@fdsonne

Ich kann dir da nicht zustimmen. Wenn die Physik auf die GPU wandert, dann kann die CPU sich endlich alleine mal um die KI kümmern. Dafür ist die CPU besser geeignet da die KI nicht einfach parallelisierbar ist. Auserdem könnte man auch mehr Zufälle in das Spiel einbauen und was ist mit dem Raumklang. Dank Vista gibt es da keine Hardwarebeschleunigung mehr. Das muß jetzt auch die CPU machen und der Klang der Spiele ist unter Vista momentan grottig.
Gucke sich doch einer mal die Source Engine. Half Life Episode Two stirbt ab an der CPU Limitiertung. Da kann man mit einer 8800 GTS G80 noch ohne Probleme 1680x1050 8xAA 16xAF Spielen und immer noch hackt es an einigen Stellen an der CPU.
Gibt genug CPU limitierte Spiele und das hängt mit der Physik zusammen die man bieten muß. Man hat in den neuem D3D10 Grafikkarten ein Shaderpower überschuss. Wieso nicht das für Physik nutzen?
 
naja das mit der sound hw beschleunigung wird sich dank Creative's Marktmacht sicher über OpenAL mittelfristig wieder einpendeln.

Dennoch: das mit Physik über Graka ist ne sehr nette Sache. Wird ja sicher zuschaltbar sein und dann kann man probieren ob mans will usw. Gibt ja einige nette Spielereien mit PhysX
 
Finde es auch grundsätzlich eine sehr interessante Sache.
Man muss halt abwarten, inwieweit es umgesetzt wird und ob es sich durchsetzten kann.

Bisher, war es eigentlich ein absolutes Nischenprodukt, auch mangels Support.
Mit Nvidia, sollte sich der Support eigentlich schnell verbessern lassen.

Wenn es sich durchsetzt, hätte NV jedenfalls ein gewichtiges Kaufargument auf seiner Seite.
 
Zuletzt bearbeitet:
Das schönste für den NVidia Kunden ist doch. Alle GeF 8 Besitzer kriegen ein neues feature geschenkt. Wann gab es das mal?
Das Problem von Ageia war immer das man die doch recht teure Karte brauchte. Jetzt hat jeder 4 Gamer die Hardware die PhysX kann in seinem Rechner schon drin. Das wird der Spieleindustrie auch nicht entgehen und eine Firma wie Crytek kreigt bei der Kooperation mit NVidia nicht nur Grafik Support sondern auch noch vieleicht eine der besten Physik Engines auf dem Markt. Ich könnte mir vorstellen das sich NVidia gerade durch diesen Schachzug von einem reinem Grafikkarten Entwickler zu einem GamesCo Entwickler mausert.
Jetzt muß AMD/ATi viel neher mit Intel arbeiten, weil Intel die andere wirklich wichtige Physik Engine mit Havok hat. AMD hat sich mit ATi einen guten Partner ins Boot geholt. Die Versäumnisse die sich die Firma geleistet hat, auch gerade mit der Physik Engine sind ja fatal.
AMD/ATi ist im zugzwang. Entweder AMD stöst ATi wieder ab, oder die entwickeln sich zu einem Nieschnprodukt was sehr schlecht für alle Kunden wehre.
 
Rein von den technischen Daten her kann eine 9600GTS nicht so schnell wie eine 3870 sein.Ist ja nur eine halbierte 8800GT.Die GT ist etwas schneller,ja.Eine halbe GT nicht.
Vorab-Benchmarks :rolleyes:
 
@fdsonne

Ich kann dir da nicht zustimmen. Wenn die Physik auf die GPU wandert, dann kann die CPU sich endlich alleine mal um die KI kümmern. Dafür ist die CPU besser geeignet da die KI nicht einfach parallelisierbar ist. Auserdem könnte man auch mehr Zufälle in das Spiel einbauen und was ist mit dem Raumklang. Dank Vista gibt es da keine Hardwarebeschleunigung mehr. Das muß jetzt auch die CPU machen und der Klang der Spiele ist unter Vista momentan grottig.
Gucke sich doch einer mal die Source Engine. Half Life Episode Two stirbt ab an der CPU Limitiertung. Da kann man mit einer 8800 GTS G80 noch ohne Probleme 1680x1050 8xAA 16xAF Spielen und immer noch hackt es an einigen Stellen an der CPU.
Gibt genug CPU limitierte Spiele und das hängt mit der Physik zusammen die man bieten muß. Man hat in den neuem D3D10 Grafikkarten ein Shaderpower überschuss. Wieso nicht das für Physik nutzen?

Ne du verstehst das nicht wie ich das meine...
Fällt die Physikberechnung von der CPU weg, fällt genau der Punkt weg, der derzeit verantwortlich ist, das wir überhaupt CPU Auslastungen in Games haben, welche jenseits von 50% (Bei nem DC) und jenseits von 25% (Bei nem QC) liegen.
Sprich die Physikberechnung ist der Hauptgrund warum ein DC oder QC überhaupt einen Vorteil bringt beim zocken.

Fällt das nun weg sind wir wieder an dem Punkt wie vor ein paar Jahren, Games nutzen einen Kern, da sich einfach das Game an sich nicht so ohne weiteres parallelisieren lässt.

Das Problem ist das viele denken, wenn mehrere Kerne vorhanden sind, lassen sich diese auch ohne Probleme nutzen, dem ist aber gerade bei Games nicht so. Das optimieren der Software für Mehrkernsysteme ist äußerst schwer und Zeitaufwendig da einfach zu viel von einander abhängt.

Mal der Einfachheithalber ein Beispiel.
Kaffee kochen.

Ich habe folgende Arbeitsschritte:
- Wasser in Maschine
- Kaffee in Maschine
- Kanne in Maschine
- Anschalten
- Filter in Maschine

Der Einfachheit halber mal angenommen brauch jeder Arbeitsschritt die gleiche Zeit zum abarbeiten.

Bei nem Rechner mit einem Kern würde nun zuerst das Wasser in die Maschine kommen, dann der Filter und der Kaffee, danach die Kanne drunter und dann wird angeschaltet.
Mit zwei Kernen würde man ein wenig parallelisieren können.
Nämlich Wasser und Filter gleichzeitig in die Maschine, danach Kaffe in den Filter und Kanne unterstellen gleichzeitig, als drittes bleibt das anschalten.

So werden nun also aus 5 Schritten 3.
Weiter optimieren lässt sich das aber nicht, weil eine Abhängigkeit vorliegt, so ähnlich ist es auch bei den Games, ...

Und ne die CPU kann sich dann auch nicht alleine um die KI kümmern, oben angesprochenes Problem ist, das man die Berechnung parallelisieren müsste, was ja so ohne weiteres nicht klappt, zumindest hats bis jetzt noch keiner so wirklich hinbekommen...
Halt einfach gesagt, man hat mehrere Threads für die verschiedenen Berechnungen (also KI, Sound oder was auch immer) welche auf einander warten müssen und somit mehr oder weniger komplett nur nacheinander abgearbeitet werden und somit nur einen Kern auslasten.

Denkt man nun ein wenig weiter, wenn dann nächstes Jahr irgendwann mal 8 Kern CPUs kommen, dann hab ich 8 Kerne von dehnen 7 nichts machen und einer für das Game zuständig ist...

Da liegt es doch sehr nahe, die Physik lieber auf der CPU zu belassen, und fast alle Kerne auszulasten!?

Die von dir angesprochene CPU Limitierung in Games, also ich finde nicht so brachial viele Games wo wirklich eine CPU Limitierung vorliegt, die Source Games gut, aber dann hörts auch schon fast auf.
Wenn ich mir beispielsweise Crysis angucke, dann kann man ganz und gar nicht von Shaderpowerüberschuss bei den Grakas sprechen...

@fdsonne

Preis einer Physik karte + Preis einer Midrange 8600 Karte = High End Grafikkarte !

Was willst du mir damit sagen, ich komm mit der Logik grad nicht klar...

Das schönste für den NVidia Kunden ist doch. Alle GeF 8 Besitzer kriegen ein neues feature geschenkt. Wann gab es das mal?
Das Problem von Ageia war immer das man die doch recht teure Karte brauchte. Jetzt hat jeder 4 Gamer die Hardware die PhysX kann in seinem Rechner schon drin. Das wird der Spieleindustrie auch nicht entgehen und eine Firma wie Crytek kreigt bei der Kooperation mit NVidia nicht nur Grafik Support sondern auch noch vieleicht eine der besten Physik Engines auf dem Markt. Ich könnte mir vorstellen das sich NVidia gerade durch diesen Schachzug von einem reinem Grafikkarten Entwickler zu einem GamesCo Entwickler mausert.
Jetzt muß AMD/ATi viel neher mit Intel arbeiten, weil Intel die andere wirklich wichtige Physik Engine mit Havok hat. AMD hat sich mit ATi einen guten Partner ins Boot geholt. Die Versäumnisse die sich die Firma geleistet hat, auch gerade mit der Physik Engine sind ja fatal.
AMD/ATi ist im zugzwang. Entweder AMD stöst ATi wieder ab, oder die entwickeln sich zu einem Nieschnprodukt was sehr schlecht für alle Kunden wehre.

Man muss aber sagen das die Agaia Physikengine derzeit ja auch schon lizensierbar ist, und nein man brauch nicht zwingend eine Physikkarte dafür, mir kommt es eher so vor, als sei die Engine eben nicht gerade das non Plus Ultra bzw. so flexibel anpass- und einsetzbar wie viele glauben.

Das beruht darauf, warum haben nicht derzeit schon viele Gamehersteller die Engine lizensiert? Das muss irgend einen Grund haben.
Wie gesagt, die Karte ist für die Engine ja nicht pflicht, da es auch die CPU tun könnte...

IdR bauen sich die Gamehersteller eigene Physikengines für ihre Bedürfnisse... Also entweder ist die Agaia Engine in den Lizenzkosten zu teuer oder in Summe zu unflexibel für eigene Anpassungen.
Die Frage wäre, wird sich das mit dem Support von den NV Karten ändern!? Ich glaube mal nicht...
 
Mag schon sein dass PhysX gut wird
...
in der Zukunft. Die Next-Gen Games werden, wenn überhaupt, stark vereinzelt die Unterstützung liefern; Also die Spiele die bereits in der Entwicklung sind. Ob Spiele, die 2009 erscheinen, überhaupt noch gut spielbar mit den aktuellen Gfx-Karten sind ist zweifelhaft. PhysX wird sicherlich mal ein grosses Thema aber meiner Meinung nach sicherlich nicht mehr für die 8xxx Serie.

jm2c
 
Schließlich hat nicht jeder ne 8800GTX/Ultra und kann da ggf. ein paar FPS verschmerzen, wenns aber um ne 8600 oder gar nur 8500 geht, dann zählt jedes bisschen Leistung um die Games brauchbar darzustellen... Und dazu kommt noch, die zusätzlichen Effekte welche sichtbar werden, brauchen wiederum auch noch 3D Rechenleistung, schließlich müssen diese auch dargestellt werden.
Klar man könnte auch ne zweite Graka zukaufen, aber mal ehrlich, ich würde in dem Punkt lieber ne Physikkarte zukaufen,

ich hatte mich auf diese aussage bezogen, denn eine Ageia karte zuzukaufen kommt offtmals teurer als eine High End Karte!

Aber wir werden sehen, ich denke mal, das selbst wenn alle 8er karten es können sollten, werden die sicher wieder einen weg finden, das erst eine High End Karte der 9er serie die leistung hat es auch zu schaffen.

Welchen grund sollte mom jemand haben der eine 8800GT hat, die immo für alle Games mehr als ausreichen ist, und selbst dann noch leistung über hätte für Physik.
 
ich hatte mich auf diese aussage bezogen, denn eine Ageia karte zuzukaufen kommt offtmals teurer als eine High End Karte!

Aber wir werden sehen, ich denke mal, das selbst wenn alle 8er karten es können sollten, werden die sicher wieder einen weg finden, das erst eine High End Karte der 9er serie die leistung hat es auch zu schaffen.

Welchen grund sollte mom jemand haben der eine 8800GT hat, die immo für alle Games mehr als ausreichen ist, und selbst dann noch leistung über hätte für Physik.

Mir gehts aber net um ne 8800GT oder GTS bzw. noch schneller, sondern um Karten ala 8500GT oder 8600GT/S, dort fällt das mit der Physik aus, da die Karten so schon zu wenig Leistung haben um überhaupt brauchbar flüssige Bilder darzustellen bei max. Details in neuen Games...
 
Sprich die Physikberechnung ist der Hauptgrund warum ein DC oder QC überhaupt einen Vorteil bringt beim zocken.

Fällt das nun weg sind wir wieder an dem Punkt wie vor ein paar Jahren, Games nutzen einen Kern, da sich einfach das Game an sich nicht so ohne weiteres parallelisieren lässt.

Das Problem ist das viele denken, wenn mehrere Kerne vorhanden sind, lassen sich diese auch ohne Probleme nutzen, dem ist aber gerade bei Games nicht so. Das optimieren der Software für Mehrkernsysteme ist äußerst schwer und Zeitaufwendig da einfach zu viel von einander abhängt.

Realität ist, das Games durchaus Threads wie KI berechnungen auf freie vorhandene Cores legen, z.B. macht Supreme Commander das. Es gibt in Spielen eben durchaus mehr als nur "Physic" und "das Spiel selbst". In dem Kontext erscheint mir Deine Argumentationsstruktur irgendwie fragwürdig.
 
Realität ist, das Games durchaus Threads wie KI berechnungen auf freie vorhandene Cores legen, z.B. macht Supreme Commander das. Es gibt in Spielen eben durchaus mehr als nur "Physic" und "das Spiel selbst". In dem Kontext erscheint mir Deine Argumentationsstruktur irgendwie fragwürdig.

SC ist dort aber das Ausnahmegame... des weiteren kommt hinzu das es ein Strategiegame ist. Sprich in Shootern oder ähnlichem ist das ein wenig anders.
Schlussendlich weis der Kunde am Ende sowieso nicht was an Berechnungen wie verteilt wird. Ein Strategiegame beispielsweise ist wiederum so ein wenig linearer aufgebaut wie ein Shooter. Da man dort theoretisch jeden KI Gegner in nem eigenen Thread packen könnte. Denn dieser KI Gegner handelt größtenteils unabhängig vom menschlichen Spieler, ein Shooter hingegen ist dort anders, dort ist extrem viel vom Menschlichen Spieler abhängig, sprich was dieser macht, ein vorrausberechnen von Dingen wie bei nem Strategiegame ist bei nem Shooter nicht so ohne weiteres möglich...

PS. Ich denke schon das ich weis wovon ich rede :bigok:
Nicht das ich jemanden meine Meinung aufzwingen will, aber mir fällt vermehrt auf, das viele einfach nicht tiefgründig genug in solche Sachen einblicken und am Ende dann sich aufgeregt wird warum und wieso es so ist wie es ist...
 
Mir gehts aber net um ne 8800GT oder GTS bzw. noch schneller, sondern um Karten ala 8500GT oder 8600GT/S, dort fällt das mit der Physik aus, da die Karten so schon zu wenig Leistung haben um überhaupt brauchbar flüssige Bilder darzustellen bei max. Details in neuen Games...

Das habe ich in diesem Thread schon mehrfach geschrieben, aber ein 8500/8600GT/GTS als zweitkarte in einem SLI ist dann sehrwohl in der lage only Physik zu Rechnen.

Und ernstahfte Spieler haben in 6Monaten ( vorher wirds nicht in Treibern umgesetzt sein ) sowiso mindestens eine 8800er karte.
 
Das habe ich in diesem Thread schon mehrfach geschrieben, aber ein 8500/8600GT/GTS als zweitkarte in einem SLI ist dann sehrwohl in der lage only Physik zu Rechnen.

Und ernstahfte Spieler haben in 6Monaten ( vorher wirds nicht in Treibern umgesetzt sein ) sowiso mindestens eine 8800er karte.

Ernsthafte Spieler haben in 6 Monaten alle ihre 8800er verkauft und werden bestimmt next-gen haben. Ausserdem haste ne Quelle für deine Aussage, dass es erst in 6 Monaten in Treiber integriert wird?
 
@fdsonne

Ich bin der Meinung das die KI das einzig parallelisierbare ist in einem Game.
Beispiel dafür:

Hydra => ultimativer Computer Schach Monster.

http://www.hydrachess.com/

Unter Download gibt es ein Movie

Ein weiteres Monster KI Schach Programm ist

DeepFritz von CheesBase

Hat auf einem Core 2 Quad mit 3GHz der Schachweltmeister geschlagen.

Alle kerne rechnen an einem Problem z.B. (Auf spiel Bezogen)
Reaktion auf die Bewegung des Spielers (Wie im Schach Dame bewegt sich ist am ehestem mit einem Spieler vergleichbar)
Jetzt wird eine Reaktion darauf berechnet.
Nur das ich in einem Spiel nicht nur 1 Zug machen kann, sondern je nach anzahl der Gegner auch 2,5 oder auch 20 züge. Allein dies in der KI zu berechnen würde jede Maschine plätten weil ich viel mehr Positionen als auch Bewegungs und Aktionsoptionen habe.
Stell dir einfach ein Shooter vor wo der Gegner anfängt nachzulade, du kommst näher und da er noch nicht fertig ist kickt er dir ein haufen Sand ins Gesicht.

Wir sind in der Spielen noch weit von einer solchen KI entfernt.

Kann sein das eine Firma auf die Idee kommt eine AIPU zu machen (Artificial Intelligence Prozessing Unit)
Als vorlage könnte das HydraBoard dienen.
 
Zuletzt bearbeitet:
@fdsonne: Es stimmt, daß aktuelle Games einen 2. CPU Kern oft für Physik verwenden.
Das zeugt aber nur von veraltetem Denken bei den Programmierern die nach wie vor nach dem alten Konzept coden und dann eben mal die Physik auslagern.
Richtige multithreaded Titel werden sicher bald folgen die nicht nur halbherzig die Physik auf den 2. Kern auslagern.
 
@fdsonne: Es stimmt, daß aktuelle Games einen 2. CPU Kern oft für Physik verwenden.
Das zeugt aber nur von veraltetem Denken bei den Programmierern die nach wie vor nach dem alten Konzept coden und dann eben mal die Physik auslagern.
Richtige multithreaded Titel werden sicher bald folgen die nicht nur halbherzig die Physik auf den 2. Kern auslagern.

Das ist wohl eher Zeitdruck. Die Spieleentwickler machen ja meistens nicht die Engine. Und die muss das 1. anbieten und 2. müssen die Entwickler dann erstmal die API kennen lernen.

Jetzt, da das Weihnachtsgeschäft rum ist, wird da sicherlich bald mehr gehen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh