Sauerei: Nvidia limitiert künstlich Batman AA bei Einsatz der CPU für Physik

ich erinnere mich noch sehr sehr gut an mein notebook mit ati 9700.. es war ein krampf um da mal irgendwelche treiber zu bekommen. unglaublich vor allem da die GF 4 serie schon wewig sehr einfach zu installieren war. und die linux-treiber gabs auch nur durch den druck der community ("freie entwickler - wie so oft")
Und was hat das mit AMD zu tun? :rolleyes:

nv hat die unterstürzung für alle GPGP karte drinne. das war nen klacks und es läuft. wo ist bitte das problem gleiches für die alten karten von ati umzusetzen. fakt ist nvdia macht es eben nicht so wie ati ;) vor allem ists lustig, da z.b. openCL ja von ATI so gepusht wird.
nVidia hat an den Shadern seit dem G80 auch nichts grundlegend geändert. Tja, so ist das halt. Wenn man weniger Ressourcen in die Hardware investiert und lieber einen DIY Fermi in die Luft hält, hat man mehr Zeit für die Software. Zudem, wenn ich mir den verlinkten Artikel so anschaue, läuft es bei nVidia auch alles andere als problemlos. Also versuche sachlich und objektiv zu bleiben, auch wenn es schwer fällt.

AMD/ATI verfolgt duch den firmenzusammenschluss genau die selbe philosophie. so und wie die in den letzten jahren ausgesehen hat (auf AMD seite) und bis heute aussieht sieht man ja. die quittung kam: das highend/mainstream geht eindeutig an Intel. besserung nicht in sicht.
Da bist du sehr schlecht informiert. AMD verfolgt nicht die gleiche Philosophie. Erstens setzen sie bezüglich Computing und Plattform auf eine Symbiose aus CPU und GPU. Das ist weder bei nVidia noch Intel der Fall gewesen. Wobei Intel mit Larrabee und der Integration der bisherigen IGPs in die CPU wohl einen ähnlichen Weg gehen wird. nVidia scheint nach bisherigen Informationen rein auf GPUs zu setzen.
Und zweitens, High-End ist bezüglich Performance schon sehr lange in AMDs Hand. Aktuell gibt es für x86 nichts schnelleres als ein 8P Istanbul System. Reine Performance ist aber sowieso nicht von grosser Bedeutung. Wir sprechen hier von Nischenmärkten. Wichtiger sind absatzstarke Märkte. Und hier ist AMD momentan sehr gut aufgestellt. Ob besser oder schlechter als die Konkurrenz, kann jeder für sich selbst entscheiden. Besser als nVidia aber allemal.

ich habs zig male probiert und hab auf AMD/ATI gesetzt - und ich hab mich immer inbesondere in sachen cpu geärgert (einzige ausnahme 3700+)... soviel zur persönlichen meinung.
Nun ja, so unterschiedlich können Erfahrungen eben sein. Ich habe zB ein C2D Notebook und bin im Nachhinein doch etwas enttäuscht. Da lief selbst mein K8 runder und flüssiger im Alltag. Ganz zu schweigen von meinem momentanen Regor. Du solltest immer bedenken, mit persönlichen Erfahrungen keine pauschalen Behauptungen zu kolportieren. ;)

und was soll man im mom bei nv großartig kitisieren?
Och, da könnte ich dir eine ganze Reihe von Punkten nennen. Da ich dich aber nicht weiter deprimieren will und das hier auch zu sehr offtopic ist, lasse ich das an der Stelle bleiben.

und wenn du ne technologie ala physx hast gibst die halt nur dann frei wenn es dir beliebt. wo ist das problem?
Das sollte doch klar geworden sein. nVidia kassiert dafür Lizenzgebühren. Und Entwickler zahlen diese, damit man nicht alles doppelt und dreifach implementieren muss und die Software auch auf möglichst vielen Systemen läuft. Wenn es aber nur mit GeForces vernünftig läuft, dann ist das nicht in Ordnung.

-- NV macht sehr guten gewinn
-- ATI/AMD macht verlust
-- ATI macht ebenfalls leichten gewinn und rettet somit das gesamtergebnis bzw lässt es etwas besser aussehen
-- hauptproblem: anteil an GF...
-- AMD verliert zuletzt Marktanteile an Intel
-- OEM partner haben probleme 5xxx und 4xxx er karten zu bekommen. nv liefert auch nur noch den rest aus und alles wartet auf den neuen chip. wer erfüllt dann an dieser stelle seine verträge nicht? aber daran ist ja eigentlich TSMC schuld :rolleyes:
Wieder mal eine sehr einseitige Argumentation. :rolleyes: Schau mal die letzten Quartale nach, da hat nVidia teilweise ordentlich Verluste gemacht. Und falls es um das abgelaufene Quartal geht, da hat sowohl die Computing als auch Graphics Sparte von AMD Gewinn gemacht. Die Verluste insgesamt sind hauptsächlich durch GloFo begründet. nVidia hat zudem zuletzt Marktanteile an AMD und Intel verloren. Wie du siehst, die entgegengesetzte Darstellung funktioniert genauso.
Ich sage es gerne nochmal, höre bitte damit auf, die Konkurrenz in ein schlechtes Licht zu rücken, in dem sie gar nicht sind und diskutiere lieber sachlich und konstruktiv darüber, was bei nVidia schief läuft. Und falls du dort nichts siehst, kann man sich auch aus der Diskussion raushalten. ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
also nochmal:

Und was hat das mit AMD zu tun?

ganz einfach: AMD hat ATi aufgekauft. somit werden die grundlegenden enscheidungen von ganz oben getroffen. das reine verhalten in sachen grafik bleibt gleich, da halt ATI dafür "spezialist" ist. und wie verlinkt setzt amd ja lieber auf ganz groß (adobe und co) als auf "kleine" projekte. das sind in meinen augen nicht nur benchmarks sondern auch games.

Du solltest immer bedenken, mit persönlichen Erfahrungen keine pauschalen Behauptungen zu kolportieren.

das persönliche meinung hast aber gelsene oder? ;) andere schrieben es er gar nedd hin was dann auch immer wieder so grober flascher argumentation führt. geht man immer von nciht persönlicher meinung aus würde sich in diesem thread nahezzu kein einziger post finden.

Das sollte doch klar geworden sein. nVidia kassiert dafür Lizenzgebühren. Und Entwickler zahlen diese, damit man nicht alles doppelt und dreifach implementieren muss und die Software auch auf möglichst vielen Systemen läuft. Wenn es aber nur mit GeForces vernünftig läuft, dann ist das nicht in Ordnung.

spekulation. durchaus möglich, dass nv im hintergrund massiv in die finazierung des games mit eigegriffen hat. von daher auch absolut i.O. wenn es nur auf NV gut läuft. würd ich genauso handhaben: " ich bezahl euch die hälfte der entwicklung dafür bla blup..."... ich würd dann noch beim gegenspieler anfragen und fragen: " was zahlst mir?" wenn der sagt " gar nix" ist die lage klar. wer dann da der böse bube ist sei mal dahingestellt. wenn dem gegenspieler dann die motivation/geld fehlt würd ich sagen: marktechnisches fehlverhalten wird halt bestraft.

das man heute nicht mehr möglichst alle plattformen bedienen muss/will sieht man auch schön im konsolensektor. da sieht man auch des öfteren PC und XBOX only. Ich würd mich da als PS3-user auch vera... vorkommen.

wenn man also kritik üben kann dann daran, dass zur zeit halt nicht mehr genug geld für unterstützung für games o.ä. zur verfügung steht. ich sehe in diesem punkte aber deutlich ATI/AMD egal ob CPU/GPU im mom im nachteil bzw mcih stört einfach die politik "alles was klein ist interessiert uns nicht"... das wiederrum ist aber auch verständlich wenn man nach zig monaten ingesamt als konzern mal wieder schwarze zahlen schreiben muss. dennoch soll man sich dann aber bitte hier nicht beschweren wenn es dann bei manchen anwednungen/games schlechter läuft. des schätze wird man in zukunft noch verstärkt sehen (gabs ja schon in der vergangenheit). klar ist das nicht gut aber geld zählt und nicht nur gute absicht. früher hat man sagen können wer HL2 oder Crysis zocken will sollte sich eher ne ATI kaufen. bei anderen games sah es wieder anders aus. diese veralgemeinerungen hier im frorum sind deshalb absolut daneben. es gibt immer noch fälle wo man halt trotz sehr guter lage der ATI-karten dennoch bis der konkurenz besser bedient ist. und da interessieren mich auch nciht die gründe: ich will das maximale bei meinen anwenungen rausholen. danach enscheide ich und ich schätze auch die meisten user hier im forum (oder sollten es tun)

zum letzten zitat: ich hätte bei den marktanteilen "im CPU markt" mit dabei schreiben sollen. im grafikmarkt ist mmn noch keine aussage möglich da die aktuelle vergleichplattform für seitens nv noch nicht vorliegt.

des weiteren war das auf die absolut "dumme" behauptung die ich oben zitiert hatte bezogen. nur um mal ein bsp dafür zu liefern was für fanboy-aussagen hier kommen durch simples verdrehen von fakten. die "sollten sich schämen" posts mal gar nicht beachtet...


und nochmal zum eigentlichen verlinkten test: so unwahrscheinlich ist das ergebnis nicht. wenn physx 1:1 in der art auf die cpu verlagert wird und es probleme bei der threadaufteilung gibt kann der rückgang schon stimmen.

die ansage: "nv limitiert" ist mal wieder eine weitergehende interpätation eines users. ich würd da erstmal die rückmeldung abwarten.

genauso diese benches:

http://media.bestofmicro.com/N/T/228953/original/Batman PxHigh 1280.png

entspricht nahezu der erfahrung mit F@H. da liegen die ATIs auch hinten. wenns physx ist und somit optimiert für nv ist das nen normales ergebnis. die karten sind nunmal nicht fixer

wie der vergleich bei opencl/directcompute ausfällt ist noch nicht bekannt. bzw da hab ich noch keine vergleiche gesehen.
 
Zuletzt bearbeitet:
http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html




Egal wie schnell die CPU, Nvidia hat dafür gesorgt das die Framerate bei Physikberechnung über die CPU nie spielbare Bereiche erreicht um die eigenen Grafikkarten besser aussehen zu lassen.

Damit eine schnelle CPU nicht doch Radeonkarten anständige Frameraten mit aktiviertem PhysX ermöglicht, wird die verfügbare Leistung einfach nicht abgerufen und der Prozessor nur teilweise ausgelastet und langweilt sich, zudem wurde das Multithreading der PhysX Engine deaktiviert damit diese maximal mit einem Thread läuft.

Was haltet ihr davon? Ich halte das für eine riesen Sauerei.



Was ist daran so schlimm, versetze dich mal in deren Lage bzw. Situation:wayne:
 
Was daran so schlimm ist?
Versetz dich mal in die Lage/Situation des Kundens der darüber nicht bescheid weiß.

:heuldoch: oder wie darf man sich als Verbraucher behandelt fühlen? ;)
 
Was daran so schlimm ist?
Versetz dich mal in die Lage/Situation des Kundens der darüber nicht bescheid weiß.

:heuldoch: oder wie darf man sich als Verbraucher behandelt fühlen? ;)

Dann macht der Kunde PhysiX aus und gut is!

http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-9.html

Wenn PhysiX zwar bei dem Spiel nicht die Resourcen braucht und evtl auch per CPU berechnet werden könnte aber nunma ein Feature von NV ist, dann ist das eben so.

Zumal man anhand der Tests auch nicht sagen könnte das eine CPU mit der Physikberechnung nicht doch überfordert wäre oder nicht.
 
Und somit hast du ultimativ festgelegt das Individuen einfach damit leben müssen das Sie was anderes bekommen haben als Versprochen wurde?

Ausserdem ist es eine Sache wenn ich aus der Synergie zwischen Hersteller und Entwickler Vorteile erlange.. Oder aufgrund der Konkurrenz zwischen 2 Herstellern mit Nachteilen zu kämpfen habe, die mirgegenüber so nie erwähnt wurden..
 
Kommt auf das Datenformat an. x86 handhabt es zB so, dass bei Ganzzahlen (Zweierkomplement) die oberen 32 Bit einfach abgeschnitten und Überläufe durch Flags gekennzeichnet werden. Bei Gleitkommazahlen wird die Bitbreite sowieso anderes gehandhabt (Mantisse/Exponent/Vorzeichen). Sollte der Wertebereich irgendwann mal überschritten werden, wird der Wert +/-INF.

Das ist alles kalter Kaffee. Die Frage ist eher, was im Ganzzahlbereich passiert, wenn ein v-Flag im Prozessorstatus nach einer Multiplikation detektiert wird, denn das übergelaufene Ergebnis wird man ja wohl kaum einfach beibehalten. Und der Überlauf kommt nunmal, sobald die Zahlbreite beider Faktoren addiert 32 übersteigt. Mir steht der Sinn nach konkretem Einblick in die Implementierung der ALUs da :fresse:

Cynish schrieb:
Und somit hast du ultimativ festgelegt das Individuen einfach damit leben müssen das Sie was anderes bekommen haben als Versprochen wurde?

Mal Werbung gesehen? Da passiert das schon seit Jahren. Und ich will die BatmanAA-Packung sehen, auf der explizit den ATi-Besitzern PhysX versprochen wird. ;)
 
Und somit hast du ultimativ festgelegt das Individuen einfach damit leben müssen das Sie was anderes bekommen haben als Versprochen wurde?

Was wurde dir denn Versprochen?

Ausserdem ist es eine Sache wenn ich aus der Synergie zwischen Hersteller und Entwickler Vorteile erlange.. Oder aufgrund der Konkurrenz zwischen 2 Herstellern mit Nachteilen zu kämpfen habe, die mirgegenüber so nie erwähnt wurden..

Dann spielst du es halt nicht. PhysiX ist nunma NV. DX10 ist auch Vista only. Natürlich hast du mir Nachteilen zu kämpfen wenn du dich für einen der Hersteller entscheidest, aber so ist das nunmal.
 
Was wurde dir denn Versprochen?



Dann spielst du es halt nicht. PhysiX ist nunma NV. DX10 ist auch Vista only. Natürlich hast du mir Nachteilen zu kämpfen wenn du dich für einen der Hersteller entscheidest, aber so ist das nunmal.

tolle einstellung!
wenn ich alles einfach nur hinnehme weil es nunmal so ist, dann wird es in zukunft noch schlimmer werden und nicht besser!

solche mißstände muss man anprangern, dann hat man vielleicht als nutzer die chance, dass man frei wählen kann ohne einschränkungen ;)
 
ach das den NV fans doch egal ob man selbst wähöen darf oder net , solange NV drauf steht!
 
tolle einstellung!
wenn ich alles einfach nur hinnehme weil es nunmal so ist, dann wird es in zukunft noch schlimmer werden und nicht besser!

solche mißstände muss man anprangern, dann hat man vielleicht als nutzer die chance, dass man frei wählen kann ohne einschränkungen ;)

Wie gesagt, bleibt dir ja immernoch die Möglichkeit PhysX zu deaktivieren und das Spiel ohne derweitige Einschränkungen zu betreiben.


Alles was die meisten Leute hier nutzen ist genau für ihr System präsentiert. Wo sind die Linux-User die sich über mangelnden Software Support beschweren, achja...es nutzen ja alle Windows. Aber moment, es gibt ja noch Open GL, den guten weil unabhängigen Standard, moment...jeder will nur Direct3D? Was ein schwachsin, da steckt doch das böse MS dahinter...

Man muss sich nunmal damit abfinden das Soft- und Hardware auf den Standards aufbauen die Hersteller beschließen, entwickeln und lizensieren. Man kann nicht alles haben da nunmal jedes Produkt mit mit Features ausgestattet wird die der Hersteller nunmal nur dafür vorgesehen hat das es auf seinen Produkten läuft. PhysX nimmt nur den Sonderfall ein das es in Soft- und nicht in Hardware zur verfügung steht, an der Tatsache ändert das aber nunmal nichts.

Mit Bleem konnte ich PS Spiele auch auf dem PC Spielen, komisch das Sony was dagegen hatte, dabei verdienen sie an den Spielen doch mehr als an ihren Konsolen....Aber nun BTT.
 
Zuletzt bearbeitet:
Bitte sachlich bleiben, ich sehe da weder etwas von deaktivierten miesen Tricks. Was ich aber sehe, sind Bildfehler bei den ATi-Karten. Und vor allem hat das ganze mit dem eigentlichen Threadthema hier gar nichts zu tun.
Hat garnichts mit den miesen Tricks von NV zu tun mach Dich nicht lächerlich.
The Way It's Meant To Be Played
In Need for Speed: Shift habe man während der Entwicklungsphase eine Reihe von Problemen festgestellt und dem Entwickler mitgeteilt. Die Probleme beträfen neben Fehlern auch ineffiziente Wege der Nutzung von ATI-Hardware durch die Engine des Spiels. Solange diese nicht behoben seien, sei auch hier kein fairer Vergleich möglich.
Jetzt ist er möglich un NV schaut auf einmal uralt aus.:d
http://www.gamestar.de/hardware/news/grafikkarten/1959382/amd.html
 
Zuletzt bearbeitet:
Statt unzählige Blogs, PDFs und Präsentationen zu veröffentlichen, solle AMD vielleicht doch lieber mehr Geld in die Verbindungen mit Spiele-Entwicklern investieren. Nvidia gebe für seine 200-Mann-Abteilung jedes Jahr einen zweistelligen Millionenbetrag aus. Auch um Builds eines Spiels müsse man sich schon selbst kümmern.

hatte ich ja schon geschrieben. trifft auch meine meinung
 
Hat garnichts mit den miesen Tricks von NV zu tun mach Dich nicht lächerlich.
The Way It's Meant To Be Played
In Need for Speed: Shift habe man während der Entwicklungsphase eine Reihe von Problemen festgestellt und dem Entwickler mitgeteilt. Die Probleme beträfen neben Fehlern auch ineffiziente Wege der Nutzung von ATI-Hardware durch die Engine des Spiels. Solange diese nicht behoben seien, sei auch hier kein fairer Vergleich möglich.
Jetzt ist er möglich un NV schaut auf einmal uralt aus.:d
http://www.gamestar.de/hardware/news/grafikkarten/1959382/amd.html

Das der Patch vielleicht gut ist aber für einen Vergleich nichts taugt hast du mitbekommen?

Wie willst du bei einem Patch, der in welcher Form auch immer optimiert ist und es auch zu den von Lord erwähnten Bildfehlern kommt die Behauptung in den Raum stellen das die 5870 ja viel schneller als die 295er ist?

Wundert mich aber das ATI sowas nicht über einen Treiber lösen kann.

Edit:

Ist ja erst der Alpha patch um die künstliche limitierung wegzukriegen mit dem Final sollte das auch behoben sein und dann tschüss GTX 295.

Und das ist nun wirklich pures getrolle.
 
ohman hier ist ja was los :fresse:

Ich hab Shift durch gezockt, aber ich hab keine Bildfehler gesehen gibts dazu Screens ?
 
ganz einfach: AMD hat ATi aufgekauft.
Und was hat das wiederum mit deinen Aussagen zu tun? :rolleyes: Du kannst es drehen und wenden wie du willst. Wovon du sprachst, Radeon 9700 bla, unzureichende Linux Treiber in der Vergangenheit, usw hat mit AMD nicht das geringste zu tun. Seit der Übernahme von ATI durch AMD hat man vieles bezüglich Linux Treiber geändert. Von daher ist deine Sichtweise mehr als überholt bzw, dass AMD dafür verantwortlich sein soll, sogar falsch.

das persönliche meinung hast aber gelsene oder? ;)
Dagegen habe ich gar nichts gesagt. Du hast schon vorher genug Pauschalisiertes kundgetan.

spekulation. durchaus möglich, dass nv im hintergrund massiv in die finazierung des games mit eigegriffen hat.
Nein, das ist keine Spekulation. Ich habe auch gar nichts davon gesagt, dass nVidia "in die Finanzierung des Games mit eingegriffen hat". Weisst du, was es bedeutet, wenn Entwickler Lizenzgebühren für die Verwendung einer Engine bezahlen? Davon war die Rede.

ich sehe in diesem punkte aber deutlich ATI/AMD egal ob CPU/GPU im mom im nachteil bzw mcih stört einfach die politik "alles was klein ist interessiert uns nicht"...
Das ist bei Intel und nVidia nicht anders. Alles wird soweit supported, soweit das Budget es zulässt. Das hat nichts mit Interessen an Kleinen zu tun. Und auch nichts mit dem Fall hier.

im grafikmarkt ist mmn noch keine aussage möglich da die aktuelle vergleichplattform für seitens nv noch nicht vorliegt.
Und wessen Problem ist das? ;) Die letzten Radeon Zahlen waren auch noch ohne die aktuelle Generation. Trotzdem hat nVidia klar an Marktanteilen verloren.
 
aso lol, in nem Alpha Patch was solls egal ob ATI oder NV über einen Alpha Patch brauchen wir doch garnicht reden wenn das in dem Final so wäre dann wäre das was anderes.
 
Zuletzt bearbeitet:
Und was hat das wiederum mit deinen Aussagen zu tun? Du kannst es drehen und wenden wie du willst. Wovon du sprachst, Radeon 9700 bla, unzureichende Linux Treiber in der Vergangenheit, usw hat mit AMD nicht das geringste zu tun. Seit der Übernahme von ATI durch AMD hat man vieles bezüglich Linux Treiber geändert. Von daher ist deine Sichtweise mehr als überholt bzw, dass AMD dafür verantwortlich sein soll, sogar falsch.

ich hatte de als bsp für die vergangenheit angegeben. da ist auch nix dran zu rütteln. ähnliche dinge seh ich aber derzeit auch - und das hat dann sehr wohl was mit ATI und AMD zu tun. und davon spreche ich. das verhalten hat sich vielleicht in bezug auf linux geändert - in bezug auf neuerungen und "kleine" projekte (wozu auch games zählen) jedoch nicht. und genau da siehts bei der unterstützung durch nv deutlich besser aus.

und nochmal zu OpenCL (das hatte ich eben vergessen): ist es nicht seltsam, dass jenes von ATI so gepushed wird (weil halt ein offener standard) und trotzdem die eigenen älteren DX10.1er serien immer noch keine unterstützung dafür haben. nv hingegen hat vollen support für karten bis runter zum G80 umgesetzt, der auch schon verfügbar ist.

schon nen bissel strange oder? ;) linux hin oder her aber in sachen treiber erscheint ATI immer etwas langsam ;) auch da könnte man durchaus mal nen bissel mehr energie rein stecken

und hinter den GPGPU-aussagen steh ich immer noch. da brauch ich auch nedd von mir reden. die aktuellen zahlen sagen da genug. ich bin jedenfalls gespannt was nen besserer treiber da noch ändern wird und wo sich nacher ati und nv beim direkten directcompute und opencl-vergleich ansiedeln. vergleichsmöglichkeiten sind eher mau. setzt man auf die aktuellen clienten siehts für nv deutlich besser aus.

und GPGPU interessiert mich nunmal. wie das mit der breiten masse hier im forum ist ist ja wieder ne andere sache.
 
Zuletzt bearbeitet:
Need for Speed: Shift war jedenfalls bisher auch so ein paradebeispiel wie man AMD Karten im Speed bremsen kann wenn man die Entwickler für The Way It's Meant To Be Played sponsert. Das lief mit ATI Karten arschlangsam.
Wies aussieht mit dem Speed wenn das NV getrickse nicht mehr greift sieht man ja schon beim Alpha patch.
 
Zuletzt bearbeitet:
ich hatte de als bsp für die vergangenheit angegeben. da ist auch nix dran zu rütteln. ähnliche dinge seh ich aber derzeit auch - und das hat dann sehr wohl was mit ATI und AMD zu tun. und davon spreche ich. das verhalten hat sich vielleicht in bezug auf linux geändert - in bezug auf neuerungen und "kleine" projekte (wozu auch games zählen) jedoch nicht. und genau da siehts bei der unterstützung durch nv deutlich besser aus.
Nicht wirklich. Du solltest nicht vergessen, AMD hat auch noch eine CPU Sparte, die Support erfordert. ;)

und nochmal zu OpenCL (das hatte ich eben vergessen): ist es nicht seltsam, dass jenes von ATI so gepushed wird (weil halt ein offener standard) und trotzdem die eigenen älteren DX10.1er serien immer noch keine unterstützung dafür haben. nv hingegen hat vollen support für karten bis runter zum G80 umgesetzt, der auch schon verfügbar ist.
Nein. nVidia hat weder vollen DirectX 11, noch OpenCL Support. Den gibt es momentan nur von AMD bei der 5000er Serie. Und seltsam ist daran gar nichts.
 
spekulation. durchaus möglich, dass nv im hintergrund massiv in die finazierung des games mit eigegriffen hat. von daher auch absolut i.O. wenn es nur auf NV gut läuft. würd ich genauso handhaben: " ich bezahl euch die hälfte der entwicklung dafür bla blup..."... ich würd dann noch beim gegenspieler anfragen und fragen: " was zahlst mir?" wenn der sagt " gar nix" ist die lage klar. wer dann da der böse bube ist sei mal dahingestellt. wenn dem gegenspieler dann die motivation/geld fehlt würd ich sagen: marktechnisches fehlverhalten wird halt bestraft.

Moment, das was du schreibst hat zwar im Ansatz seine Richtigkeit, aber auch nur im Ansatz.
Wenn NV Geld zahlt für die Entwicklung eines Games ist das gut und schön, wenn AMD nicht bereit ist ebenso Geld zu zahlen, ist das vllt auch verständlich. Aber warum zum Teufel muss dann hier künstlich die Leistung bei erkannter nicht NV Hardware gedrosselt werden?
Das verwalten der Threads von PhysX (bei CPU implementierung) ist eindeutig NVs Sache.
Wenn NV hier auf die Bremse tritt, aus welchem Grund auch immer ist das Wettbewerbsverzerrung. Sie bestechen quasi Spieleschmieden mit Geld damit ihre Hardware besser da steht.
Das kommt auf das selbe drauf raus, wie wenn sich ein Hersteller von Hardware bei den gängigen Magazinen einkauft um bessere Ergebnisse in den Benches zu bekommen...

Hier muss sich eindeutig NV mal überlegen, ob sie da den richtigen Weg gehen... Und die Spieleschmiede sollte sich mal überlegen, ob es für sie von Vorteil ist, sich derart beeinflussen zu lassen von einem Hersteller...

wenn man also kritik üben kann dann daran, dass zur zeit halt nicht mehr genug geld für unterstützung für games o.ä. zur verfügung steht. ich sehe in diesem punkte aber deutlich ATI/AMD egal ob CPU/GPU im mom im nachteil bzw mcih stört einfach die politik "alles was klein ist interessiert uns nicht"... das wiederrum ist aber auch verständlich wenn man nach zig monaten ingesamt als konzern mal wieder schwarze zahlen schreiben muss. dennoch soll man sich dann aber bitte hier nicht beschweren wenn es dann bei manchen anwednungen/games schlechter läuft. des schätze wird man in zukunft noch verstärkt sehen (gabs ja schon in der vergangenheit). klar ist das nicht gut aber geld zählt und nicht nur gute absicht. früher hat man sagen können wer HL2 oder Crysis zocken will sollte sich eher ne ATI kaufen. bei anderen games sah es wieder anders aus. diese veralgemeinerungen hier im frorum sind deshalb absolut daneben. es gibt immer noch fälle wo man halt trotz sehr guter lage der ATI-karten dennoch bis der konkurenz besser bedient ist. und da interessieren mich auch nciht die gründe: ich will das maximale bei meinen anwenungen rausholen. danach enscheide ich und ich schätze auch die meisten user hier im forum (oder sollten es tun)

Das Problem ist doch, hier beist sich die Katze in den Schwanz, der GPU Hersteller will sich bei Spieleschmieden einkaufen um den möglichst besten Ausgangspunkt zu bekommen. Und kommt damit auch noch durch... Wie man ja an den Reaktionen hier sieht. AMD ist ja so dämlich und investiert nicht im gleichen Maße!? :rolleyes:

Übrigens ist es doch nicht sonderlich verwerflich seitens AMD sich vorerst auf das wesentliche zu konzentrieren (sprich große Firmen) und nicht für jeden Kleckerkram Geld rauszupulvern...

und nochmal zum eigentlichen verlinkten test: so unwahrscheinlich ist das ergebnis nicht. wenn physx 1:1 in der art auf die cpu verlagert wird und es probleme bei der threadaufteilung gibt kann der rückgang schon stimmen.

die ansage: "nv limitiert" ist mal wieder eine weitergehende interpätation eines users. ich würd da erstmal die rückmeldung abwarten.

Das doch nicht dein ernst?
PhysX basierte schon immer auf mehreren Threads und war sehr einfach auf mehrere CPU Cores ausweitbar.
Sicher können wir ohne genaue Infos darüber nur Spekulieren, aber mal ganz ehrlich, was ist denn warscheinlicher?

Ich persönlich gehe stark davon aus, NV sieht die Felle wegschwimmen... Und zieht voreilig die Notbremse. Wäre ja nicht auszudenken, wenn in dem Game mit CPU PhysX ne AMD Karte schneller wäre als ne NV Karte mit GPU-PhysX...

Vllt sollte man das mal Haarklein vergleichen...
Ne kleine NV Karte einmal ohne PhysX und einmal ne kleine AMD Karte ohne PhysX... Ich wette, das Game läuft auch ohne aktiviertes GPU PhysX auf der NV Karte drastisch schneller, weil dort die Threadaufteilung auf wundersame weise wieder aktiv ist ;)

Wenn PhysiX zwar bei dem Spiel nicht die Resourcen braucht und evtl auch per CPU berechnet werden könnte aber nunma ein Feature von NV ist, dann ist das eben so.

PhysX ist doch in erster Linie eine Physikengine, die dafür da ist, das Game mit physikalisch korrekten Berechnungen zu füttern um so schönere Effekte zu erziehlen...

Wenn sich eine Spieleschmiede dazu entschließt PhysX zu benutzen, und dazu noch eine Cuda Implementierung nutzen wollen, die noch weit bessere Effekte zeigt ist das alles noch ihr gutes Recht...

Nur wir sprechen doch hier über den Punkt, das (entweder die Spieleschmiede, oder NV selbst) hier bei verwenden von nicht NV Hardware künstlich die Notbremse reinwirft... Damit ja auch unspielbare FPS Raten raus kommen und der Gamer quasi gezwungen ist NV Hardware zu verwenden...

Sollen sie doch PhysX auf CPU für die Basis Physikberechnungen laufen lassen (siehe Mirrors Edge) und alle schönen und aufwendigen Zusatzeffekte für NV only Hardware bestimmen. So würde kein Mensch meckern...
Aber so, wie es jetzt scheint, geht es mal gar nich...

Nein. nVidia hat weder vollen DirectX 11, noch OpenCL Support. Den gibt es momentan nur von AMD bei der 5000er Serie. Und seltsam ist daran gar nichts.

OpenCL gibts auch schon für die HD4xxxer Karten...
 
fdsonne schrieb:
Nur wir sprechen doch hier über den Punkt, das (entweder die Spieleschmiede, oder NV selbst) hier bei verwenden von nicht NV Hardware künstlich die Notbremse reinwirft... Damit ja auch unspielbare FPS Raten raus kommen und der Gamer quasi gezwungen ist NV Hardware zu verwenden...

Sollen sie doch PhysX auf CPU für die Basis Physikberechnungen laufen lassen (siehe Mirrors Edge) und alle schönen und aufwendigen Zusatzeffekte für NV only Hardware bestimmen. So würde kein Mensch meckern...
Aber so, wie es jetzt scheint, geht es mal gar nich...

Moment, die unspielbaren Frameraten auf ATI Karten kommen nur beim Einsatz von PhysX vor. Wenn der Spieler also PhysX nicht nutzt läuft das ganze ohne Probleme auch auf ATI. Ich kann zwar nicht nachvollziehen warum PhysX sich überhaupt bei ATI Hardware aktivieren lässt (ohne diese Funktion gäbe es diesen Thread nicht), trotzdem weiß ich nicht ob sich die Effekte ohne weiteres auf die CPU auslagern lassen würden, rein vom Leistungsvergleich CPU zu GPGPU.
 
Das doch nicht dein ernst?
PhysX basierte schon immer auf mehreren Threads und war sehr einfach auf mehrere CPU Cores ausweitbar.
Sicher können wir ohne genaue Infos darüber nur Spekulieren, aber mal ganz ehrlich, was ist denn warscheinlicher?

Ich persönlich gehe stark davon aus, NV sieht die Felle wegschwimmen... Und zieht voreilig die Notbremse. Wäre ja nicht auszudenken, wenn in dem Game mit CPU PhysX ne AMD Karte schneller wäre als ne NV Karte mit GPU-PhysX...

Vllt sollte man das mal Haarklein vergleichen...
Ne kleine NV Karte einmal ohne PhysX und einmal ne kleine AMD Karte ohne PhysX... Ich wette, das Game läuft auch ohne aktiviertes GPU PhysX auf der NV Karte drastisch schneller, weil dort die Threadaufteilung auf wundersame weise wieder aktiv ist

alles richtig nur ebenso spekulation. wie sich das ganze verhälten hätte ist nicht anhand des verlinkten threads zu sehen. was jedenfalls so halbwegs sichtbar ist, ist dass das game scheinbar auf dualcore optimiert ist. dort gibts den größten sprung und weitere cores bringen nur maginal etwas. wenn ich die auslastung des taskmanagers sehe liege ich in etwa bei 100%@Dualcore. so schalte ich nun physx hinzu und belaste die zwei kerne noch dadurch ist doch wohl logisch dass die leistung runter geht oder nicht?

nun kann man sich überlegen warum des so ist. hat es was mit nv zu tun oder liegt es einfach an der core-optimierng des games (+ schlechtere leistung bei der CPU gegenüber der GPU)? so und genau dazu gibts keine aussage. jedenfalls davon auszugehen, wenn man 4/8 kerne hat diese dann auf 100% laufen zu haben ist doch wohl zumindest derzeit noch eher ein wunsch als faktum. ob man die physx-berechnung tatsächlich mit der engine die verwendet wird auf zusätzliche core verlagern könnte ist immer noch die frage. in diesem fall aber direkt von nem skandal und "nv limitiert" anhand des verlinkten threads ohne weitere erkenntnisse zu sprechen ist einfach an den haaren herbeigezogen und berut auf keinerlei fakten sondern vermutungen. und zu vermutungen sag ich nur :wayne:
 
Zuletzt bearbeitet:
Na wie viel PhysX ist denn drin, wenn man das ganze mit AMD GPUs aktiviert?

Wenn ich mir Mirrors Edge ansehe, kann ich fast volle Effekte bei PhysX zuschalten und das läuft auch auf normaler AMD Hardware total kreme...

PhysX gänzlich deaktivieren ist übrigens nicht, eine gewisse Basisphysikberechnung ist immer drin, sonst müsste der Hersteller ja quasi alle Effekte wo PhysX ne Rolle spiel einerseits mit und andererseits ohne Programmieren, was bei nem Shooter oder ähnlichem wohl quasi doppeltem Aufwand bedeuten würde...
 
das geht aber jetzt wieder in die richtung die ich schon beschrieben hatte. wenn das game für die nv-API optimiert ist und ist die leistung einer ati im vergleich dazu möglicherweise gering. nen bsp hatte ich ja dazu schon genannt. die frage wäre nun wieder was ist wenn du z.b. ne nv auf der ati-API laufen hast: wie verhält sich die nv-karte? spkultion also. fakt ist ich seh bei F@H die 5870 auf G80-level rumlaufen. so und wenn dem in diesem game ebenso ist kannst höchstens anprangern, dass die nv-API genutzt wird. andersrum könnte ich als nv-user dann bei der ATI-API rummjammern.

wie sich die beiden hersteller bei opencl und directcompute verhalten ist immer noch nicht klar. vergleichsmöglicheiten gibbet nedd. dazu ist das noch zu neu.

Übrigens ist es doch nicht sonderlich verwerflich seitens AMD sich vorerst auf das wesentliche zu konzentrieren (sprich große Firmen) und nicht für jeden Kleckerkram Geld rauszupulvern...

dann sollte man sich aber auch nicht aufregen wenn manche games mit AMD/ATI-HW halt schlechter laufen als mit möglichem support.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh