Sauerei: Nvidia limitiert künstlich Batman AA bei Einsatz der CPU für Physik

wenn spiele wie Batman gar nicht, oder nur bedingt auf Ati laufen würden könnte ich die aufregung absolut verstehen,
aber da es einzig um die, wie hier schon bemerkt nicht all zu tollen und wichtigen, physix effekte geht sollte man das
nicht zu ernst nehmen!

Nvidia hat sich nunmal in der letzten dekade ein ziemliches netzwerk aufgebaut und geht aktiv auf spielehersteller ein. bin wirklich
kein fanboy und hatte ähnlich viele karten von beiden herstellern, allerdings gibts immer wieder spiele die auf Ati einfach schlecht
laufen. gab immer mal wieder geschichten wo spielehersteller sogar auf Ati zugingen und um bestimmte treiber fixes baten, Ati
blieb aber meist stur...tja selbst schuld würde ich sagen!

wenn von 10 spielen 8 auf beiden herstellern ähnlich gut laufen, bzw. der realen leistung der karten entsprechend, laufen 2
auf Ati unterirdisch schlecht! das ist sicher nicht Nvidias schuld!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Absolute Frechheit, Nvidia ist ein so unsympatisches Unternehmen! Schade das es viele Idioten gibt die einfach nach Marke kaufen und dadurch Nvidia so gut aussehen lassen wenn es um Umsatz, Marktanteil usw geht...

deine aussage ist auch schwachsinnig!
ich finde es jedes mal wieder geil wenn die fanboys der jeweiligen lager sich zuflamen. denn jeder denkt scheinbar, dass seine favorisierte firma die bessere und "nettere" firma wäre. aber unterm strich bleibt eins: die wollen alle nur unser bestes!!! unser geld! das sind alles keine hiligen samariter!

zu g80 zeiten gab es keine weitere auswahl, außer eine nvidia-karte. wer damals zu ati gegriffen hat, war ein fanboy der auch nur nach marke gekauft hat!
genauso war es aus p/l-sicht bis vor wenigen wochen das beste zu amd zu greifen! (mittlerweile in jeder schicht, ob nun low-end, mid-range oder high-end)

wenn jeder user nach p/l und nach den gesetzen von sinn und verstand (was habe ich? [Monitorgröße?] was brauche ich? [Welche Spiele spiele ich überhaupt?] was will ich? [Welche Qualitätsansprüche habe ich? Brauche ich AA/AF oder gar PhysX?]) kaufen würde, wären solche diskussionen völlig irrelevant!

zum thema speziell: am ende geht es hier um funktionen! NV hat PhysX eingeKAUFT! und das sicher nicht für wenig geld! dieses geld muss irgendwie wieder verdient werden! und das passiert dadurch, das mehr eigene karten verkauft werden. wer physx nutzen will, muss nv kaufen! wer nicht der soll halt kein physx nutzen dürfen!
allein aus markttechnischer sicht ist diese vorgehensweise völlig legitim!!!
 
Zuletzt bearbeitet:
wenn spiele wie Batman gar nicht, oder nur bedingt auf Ati laufen würden könnte ich die aufregung absolut verstehen,
aber da es einzig um die, wie hier schon bemerkt nicht all zu tollen und wichtigen, physix effekte geht sollte man das
nicht zu ernst nehmen!

Nvidia hat sich nunmal in der letzten dekade ein ziemliches netzwerk aufgebaut und geht aktiv auf spielehersteller ein. bin wirklich
kein fanboy und hatte ähnlich viele karten von beiden herstellern, allerdings gibts immer wieder spiele die auf Ati einfach schlecht
laufen. gab immer mal wieder geschichten wo spielehersteller sogar auf Ati zugingen und um bestimmte treiber fixes baten, Ati
blieb aber meist stur...tja selbst schuld würde ich sagen!

wenn von 10 spielen 8 auf beiden herstellern ähnlich gut laufen, bzw. der realen leistung der karten entsprechend, laufen 2
auf Ati unterirdisch schlecht! das ist sicher nicht Nvidias schuld!

Assassins Creed:
Ubisoft gezwungen per Patch DX10.1 zu entfernen (obwohl es deutlich schneller lief als in DX10)

Batman:
Jetzt die Geschichte, wo von dem vendorID check noch garicht hier die rede ist.


Cryostasis:
Die selbe PhysX Scheisse, auf ATIs nicht spielbar.


Aber da gibts noch soviel, aber ich hab eigentlich keine böcke mehr mich über sowas zu streiten ist eh sinnlos die Nvidianer finden das alles sehr geil und die ATIlaner schimpfen was das Zeug hält (bin auch einer davon) .
 
Zuletzt bearbeitet:
Assassins Creed:
Ubisoft gezwungen per Patch DX10.1 zu entfernen (obwohl es deutlich schneller lief als in DX10)

Batman:
Jetzt die Geschichte, wo von dem vendorID check noch garicht hier die rede ist.


Cryostasis:
Die selbe PhysX Scheisse, auf ATIs nicht spielbar.


Aber da gibts noch soviel, aber ich hab eigentlich keine böcke mehr mich über sowas zu streiten ist eh sinnlos die Nvidianer finden das alles sehr geil und die ATIlaner schimpfen was das Zeug hält (bin auch einer davon) .

Solang die nur so "bescheidene" spiele verhuntzen , denn mir gefällt weder batman nich Cryostasis :d

Und zur not hab ich wie gesagt ne 9800 hier rumfliegen die kann PhysX mit crack treiber ;D

Aber nen offener standart für alle wär mal echt was
 
Aber Assassins Creed ist schon cool muss man sagen.

Was ist jetzt eigentlich wenn ich mir bei ebay ne Agaia PhysX Karte kaufe funzt die dann auch?
Oder blockt das NV mit dem neuen Treiber ?
 
Aber Assassins Creed ist schon cool muss man sagen.

Was ist jetzt eigentlich wenn ich mir bei ebay ne Agaia PhysX Karte kaufe funzt die dann auch?
Oder blockt das NV mit dem neuen Treiber ?

Stimmt da war es ärgerlich.

Aber mal sehen AMD arbeitet wegen DX11 ja eng mit paar zusammen mal sehen wie das dann auf NV karten läuft :P:heuldoch:
 
Ich glaub PhysX wird immer ein Nischenprodukt bleiben, DX11 heisst das Zauberwort :coolblue:


DX11 ist eine einheitliche Schnittstelle, man kann Physik auch über Compute Shader (DX11) programmieren udn werden sich die Spielehersteller sich eher drauf versteifen als wie PhysX, da es beide Hersteller können (gut NV noch nicht :fresse: )
 
Zuletzt bearbeitet:
Das funzt einwandfrei, wenn man das Schloss öffenen tut im CCC oder mit einem anderen Tool OC tut dann flackert das Bild auf dem zweiten Monitor ansonsten ist alles iO ;)
Anwenderfreundlichkeit²
 
Angeblich hat Nvidia auch den Lucid Hydra auf den MSI Big Bang Boards erfolgreich verhindert.
 
Leute, keine Hetze, sondern sachliche Diskussion. Sonst ist hier bald dicht, was ich sehr schade fänd.
 
Fakt ist das mit dem flackern ist ein Treiber Bug, ich hab Crossfire seit der X850 XT und hab das noch nie gehabt wird mit dem nächsten Treiber behoben.
 
Flackern oder nicht ist doch latten. Bedenklich is teher, dass der Kunde selbst Hand anlegen muss und streng genommen sogar Gewährleistungsandsprüche verliert, da er seine Karte nicht mehr innerhalb den Spezifikationen betreibt.
 
schön das mein beitrag überrsehen wurde *g*

wie gesagt: das ist ein feature was NV bieten kann, weil sie es teuer eingekauft haben. Würdet ihr eine Firma (und die dazugehörige Lizenz) kaufen, wenn es auch auf anderen Systemen lauffähig wäre, welche dafür nichts zahlen mussten? ich denke nicht!

und man muss auch beachten: die entscheidung über nutzung von feature's liegt bei den publishern/entwicklern! ob sie für bestimmte dinge gelder annehmen (und dann programme verändern) oder nicht, entscheiden auch sie! siehe dx10.1 @ assassins creed
 
Flackern oder nicht ist doch latten. Bedenklich is teher, dass der Kunde selbst Hand anlegen muss und streng genommen sogar Gewährleistungsandsprüche verliert, da er seine Karte nicht mehr innerhalb den Spezifikationen betreibt.

hö?

CCC Schloss zu = kein flackern, alles Top und Garantie bleibt erhalten.
CCC Schloss auf = flackert, weil OC und Garantie weg.


Also, läuft doch alles blendent so wie es sein soll:coolblue:
 
Zuletzt bearbeitet:
Ich glaub PhysX wird immer ein Nischenprodukt bleiben, DX11 heisst das Zauberwort :coolblue:
klar bleib Physx ein nischenprodukt, bzw. spielerei.

das liegt daran, dass sich spieleentwickler überlegen müssen, mit welchem physikengine sie am besten geld verdienen. physx schließt die ganzen ATI nutzer aus, ergo weniger geld.

zweitens unterstützt nvidia zwar eine menge spielehersteller, wendet sich mit dem GT300 vom gamermarkt aber ein wenig ab. 2012 wird der automobil sektor angegriffen. :d

edit:
schade an diesem thread ist, dass er von einem absoluten fanboy ist und hauptsächlich zum nvidia fertigmachen gedacht ist.
batman ist ein absolutes nvidia game, nvidia grakas wurden bei der release verlost, das spiel ist total auf nvidia getrimmt und das sollte eigentlich jedem klar sein.
 
Zuletzt bearbeitet:
zweitens unterstützt nvidia zwar eine menge spielehersteller, wendet sich mit dem GT300 vom gamermarkt aber ein wenig ab. 2012 wird der automobil sektor angegriffen. :d

oja klar, dann wird einem vorher schon in einer Simulation am TFt Radio gezeigt was mit dem Auto passiert wenn du den Gegenverkehr mit 200 frontal nehmen tust :fresse::fresse::fresse::fresse::fresse::fresse:
 
Zuletzt bearbeitet:
tjaja nur das nv mit ihrer technologie in dem bereich deutlich vor ATI liegen. das ist den meisten gamern zwar nicht bewusst, die GPGPU-fähigkeiten der neuen ATIs liegen zur zeit grade mal auf dem eher schwachen level des G80. weshalb sollte wann dann bitte eine version auf dem markt nutzen die zwar offen aber dafür ineffektiv ist?

Das liegt aber nicht an der Hardware sondern an der Software/SDK seitens AMD.
Der RV870 hat grob die 6fache Leistung einer GTX285 in DP, nur denken die noch nicht wirklich dran da Geld reinzustecken um das auch zu nutzen oder nutzen lassen.

Schenken wirds ihnen aber auch keiner gell :d
 
Weis gar nicht warum sich hier alle so aufregen.

Ein proprietärer Standard hat sich meines Wissen noch nie durchgesetzt. Deswegen wird PhysX sich nicht durchsetzen.

MS hat ja schon reagiert und die DX11 API entsprechend angepasst.

Also warum Gedanken machen über etwas, was es eh nicht mehr lange gibt?
 
Ein proprietärer Standard hat sich meines Wissen noch nie durchgesetzt. Deswegen wird PhysX sich nicht durchsetzen.
Naja, eigentlich setzen sich am Markt hauptsächlich proprietäre Dinge durch. zB Windows, oder MP3 oder BluRay usw.
 
Das Problem ist doch, was hier ja anscheind sehr viele nicht verstehen, dass NV ihre Technologie namens PhysX mit Mitteln vermarktet, die unter aller sau sind. Zumal PhysX sich ja jetzte seit vielen Jahren noch nicht durchgesetzt hat. Die Limitierung ist doch nur um in den Benchmarks besser dazustehen. Wieso sollte AMD in etwas investieren, was keiner nutzen will, wenn es doch sehr viele andere offene standards gibt. AMD wär ganz schön blöd in NV zu investieren um etwas populärer zu machen, was bei jedem 2ten User sauer aufstößt. Das gleiche gilt natürlich auch für Havok, da es Intel gehört, wird sich AMD hüten in Intel zu investieren. Das ist meine Meinung, die nirgendswo bewiesen wurde aber für mich sehr logisch erscheint.

MFG
 
Das liegt aber nicht an der Hardware sondern an der Software/SDK seitens AMD...
als Kunde kaufe ich aber immer das Paket aus Hardware und Software.
Wenn dann die reale Leistung deutlich unter der theoretischen Maximal-Leistung liegt (Folding@Home als Grundlage), dann ist mir als Kunde egal, obs an der Hardware oder an der Software liegt.
Wenn ich deshalb enttäuscht bin, dann ist das wohl mehr als verständlich.
Ich begrüße es sehr, dass es mit DirectCompute mehr Standards gibt, weil dadurch auch ein direkterer Vergleich möglich wird.
In diesem Benchmarktool ()News auf CB und Postings im Forum) schneidet die HD 5x00 auch nicht gerade rühmlich ab (der Treiber unterstützt für ATI-DX10/10.1-Grakas aktuell noch kein DirectCompute).
Ok, das Tool ist noch sehr neu. Der ein oder andere Fehler kann noch drin stecken. Allerdings deckt sich das Ergebnis mit meiner persönlichen Erfahrung aus den Berechnungen für Folding@Home.
Was mich in dem Zusammenhang nervt:
Die wenigsten User haben eigene Erfahrungen mit beiden Graka-Herstellern in diesem Feld und schmeißen nur mit theoretischen Werten durch die Gegend oder plappern andere nach.
Anscheinend werden bei ATI die 5D-Shader effektiv nur als 1D-Shader genutzt.
Grundlage 1 für diese Aussage<---allerdings habe ich hier noch nicht berücksichtigt, dass die Nvidia-GPUs wahrscheinlich auch nicht zu 100 Prozent ihre theoretische Leistung umsetzen.
Grundlage2:
G200: ca 1 Tflops
Cypress: ca. 2,7 Tflops
Damit wär sie als ca. 2,7 mal so schnell. Teilt man diesen Wert durch 5, dann landet man bei 0,54. Dies spiegelt dann auch in etwa der DirectCompute-Benchmark wieder.
Vielleicht ist das aber auch alles nur Zufall.
Ich hoffe inständig, das sich hier bei den ATI-Treibern endlich deutlich etwas tut.

zum eigentlichen Thema:
Was Nvidia da macht (PhysX unterbinden, AA-Modi nur für die eigenen Grakas freischalten,...), ist für den User nicht schön. Das sehe ich auch so. Allerdings kann ich auch verstehen, dass Nvidia die Früchte ihrer Investitionen nicht einfach an Mitbewerber verschenkt.

ciao Tom

P.S. wer das Flackern auf dem zweiten Bildschirm als annehmbar verkauft, damit die Graka auch bei zwei Monitoren runtertaktet, den kann ich eigentlich nicht mehr ernst nehmen. It's not a bug, it's a feature.:rolleyes:
 
Zuletzt bearbeitet:
Dem ist nix mehr hinzuzufügen!
Das prob ist wie immer...boaahhh ist die schnell..das wars auch schon...weiter wird nicht geschaut...
Das die Treiber im mom unter aller Sau sind, juckt doch die wenigsten, ist auch hier müsig sich darüber zu unterhalten.
 
Das ist mir bei Mirrors Edge schon aufgefallen. Es ruckelt wie socke mit PhysX, aber die CPU ist nicht annähernd ausgelastet.
Das ist einfach traurig, dass die mit solchen Methoden arbeiten müssen.
 
Also ich kann das zu 100% nachvollziehen, was nv da macht,
ATI hat im Moment nichts gegen NV - selbst die 5870 ist kein Konkurrent - vll als Single GPU für Gaming - toll,
das interessiert doch niemanden.
viel interessanter sind die CUDA / PhysikX und von ATI das Brokk..
Und mit Supercomputing lassen sich Mrd. verdienen, mehr als mit Games.. und obwohl die 5870/die dazugehörige Stream auf dem Papier schneller sind, verlieren sie Haushoch gegen die "alten" NV Konkurrenten. NV hat nichts falsch gemacht und sich wunderbar in diesem Markt intrigiert, was spricht dagegen, das sie ihrer Anteile nicht verschenken?
Ich erinnere mich das NV ihrer Tesla/Quadros mit bis zu 50% Rabatt für CUDA use auf den Markt geworfen haben und das zu tausenden pro Abnehmer damit sie ihren Standard weiter verbreiten. ATI hingegen haben ihrer Streams mit Brokk erst viel später auf den Markt gebracht und nicht so eine Rabatt Schlacht geführt wie NV in dem Bereich :wink: und deswegen ziehen sie bei sowas eben den kürzeren.
Wo ist denn da das Problem? CUDA / PhysikX ist nicht von großer dauer Aufgrund von DirectCompute und? Das hat NV selbst in einem Interview bestätigt, aber gleichwohl angemerkt solange es doch DX10 und somit CUDA / PhysikX gibt, dort das Maximum herauszuholen und damit für DirectCompute zu lernen, was ATI nie gemacht hat...

Des weiteren heute gibt es mehr NV Games, nennen wir sie mal so. Und?
AIT ist ja nicht bereit die Entwickler aktuell zu unterstützen.

Und wenn ich mal an früher erinnern darf - z.b. Die Source Games von Valve a la Half life 2 etc. . Diesen liefen bis zu 20% schneller auf ATI Karten, weil AIT damals dort investiert hatte :rolleyes: wo ist das Drama, wenn NV heute investiert?

mfg
MAFRI

P.S.: Nicht zu vergessen der GGPU Sektor ist größer und vielfältiger als der GPU... und das wird ATI schlagartig merken, wenn NV ihren G300 auf den Markt werfen.. oder Intel irgendwann die Labree...
 
Zuletzt bearbeitet:
AIT ist ja nicht bereit die Entwickler aktuell zu unterstützen.
Das ist ja nicht richtig, die bezahlen ja oft die zusätzliche Entwicklungszeit die benötigt wird um aktuell in Entwicklung befindliche Spiele mit DX11 Unterstützung auszustatten wie zB bei Dirt2. Im Moment sind etwa fast 20 DX11 Spiele in Entwicklung die von ATi unterstützt werden, darunter auch Crysis2 das man auf den letzten ATi Präsentationen sehen konnte.
 
tjaja nur das nv mit ihrer technologie in dem bereich deutlich vor ATI liegen. das ist den meisten gamern zwar nicht bewusst, die GPGPU-fähigkeiten der neuen ATIs liegen zur zeit grade mal auf dem eher schwachen level des G80.

Blödsinn. Du scheinst tatsächlich APIs wie physx und cuda mit der hardware architektur bzw. deren fähigkeiten und performance zu verwechseln.

Wieso sollte AMD auf ein totes pferd wie physx setzen? In zwei jahren spricht niemand mehr davon weil physik berechnungen dann entweder in dx11 compute-shadern oder opencl ausgeführt werden - und somit auf karten beider hersteller laufen. Problem gelöst, physx tot.
 
P.S.: Nicht zu vergessen der GGPU Sektor ist größer und vielfältiger als der GPU... und das wird ATI schlagartig merken, wenn NV ihren G300 auf den Markt werfen.. oder Intel irgendwann die Labree...

jep so sehe ich das auch. wenn der GT300 so gut wird wie versprochen, dann ist nach der release in vielen vielen workstations zu finden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh