Sauerei: Nvidia limitiert künstlich Batman AA bei Einsatz der CPU für Physik

als Kunde kaufe ich aber immer das Paket aus Hardware und Software...

Ich weiß.. wollte nur sagen das es an der Software liegt - warum AMD hier noch nicht so weit ist wie NV kann ich nicht sagen (dazu fehlen mir die Insider) aber vermutlich sehen sie diese Sparte nicht als besonders wichtig (noch nicht) um dafür Leute abzustellen.

Die Aussage das der RV870 auf G80 lvl ist ist aber schlicht falsch, vom Featureset (GPGPU) ist er min mit dem GT200 gleichzusetzen und von der theoretischen leistung ..wie gesagt.

Das man es noch nicht umsetzen kann ist aber auch fakt, dennoch ist es "nur" ein "software" problem.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wieso sollte AMD auf ein totes pferd wie physx setzen? In zwei jahren spricht niemand mehr davon weil physik berechnungen dann entweder in dx11 compute-shadern oder opencl ausgeführt werden - und somit auf karten beider hersteller laufen. Problem gelöst, physx tot.

Das würde ich so nicht behaupten...
PhysX ist nur die Software, wie diese am Ende implementiert ist, spielt erstmal keine Rolle. Wenn sich die PhysX als Physikengine durchsetzt, breiten anklang findet und somit von den Herstellern gefordert wird, dann ist sie sicher nicht tot zu bekommen.

Problem ist aber, NV hat die Implementierung in der Hand, Ergo nur auf CPUs lauffähig oder auf CUDA fähigen GPUs.
Solange aber nicht die Masse aller GPUs eine Implementierung erfährt, wird PhysX sich nicht wirklich etablieren können.

Im Moment ist PhysX als Engine auf jeglicher CPU Basis nutzbar, ergo auch auf nahezu allen PCs lauffähig, deswegen auch der Grund, warum viele Games auch PhysX als Engine einsetzten aber das GPU Feature nicht beachten... neuestes Beispiel ist da wohl Risen!

Spätestens aber wenn Havok ne OpenCL oder DX Compute Shader implementierung bekommt, wird NV schwer nachdenken müssen, wie die Zukunft von ihrer Engine ausschaut... Und AMD arbeitet ja zusammen mit Intel wohl scheinbar an Havok und dessen GPU Umsetzung, soweit ich das in Erinnerung hab, da gabs zumindest mal News zu!

jep so sehe ich das auch. wenn der GT300 so gut wird wie versprochen, dann ist nach der release in vielen vielen workstations zu finden.

Und was willst dann mit der Karte machen?
Der Markt ist sehr sehr klein, wo derartige Karten anklang finden... Bzw. ist erst noch im Wachsen, weil es sogut wie keine Software gibt, die breitbandig verfügbar und bekannt ist, und auf GPGPU Features setzt...
Da die Workstationkarten aber durch hervoragenden Support und dergleichen zu extremen Preisen verkauft werden, macht man damit auch trotz wohl recht wenig Absatzmenge extrem viel Geld.

Testla und Co ist ne andere Geschichte und damit nicht vergleichbar... Hier gehts um HPC, da kommt aber auch keine Standard Software zum Einsatz.
Nicht immer alles in einen Topf werfen ;)



Übrigens Jungs, hier gehts um die Beeinträchtigung der Leistung bei verwenden von CPUs zur Berechnung von PhysX Effekten, nicht um irgendwelche GPGPU Sachen weit abseits von PhysX ;)

Ich weiß.. wollte nur sagen das es an der Software liegt - warum AMD hier noch nicht so weit ist wie NV kann ich nicht sagen (dazu fehlen mir die Insider) aber vermutlich sehen sie diese Sparte nicht als besonders wichtig um dafür Leute abzustellen.

Die Aussage das der RV870 auf G80 lvl ist ist aber schlicht falsch, vom Featureset (GPGPU) ist er min mit dem GT200 gleichzusetzen und von der theoretischen leistung ..wie gesagt.

Das man es noch nicht umsetzen kann ist aber auch fakt, dennoch ist es "nur" ein "software" problem.

Erklär mir mal bitte was AMD dafür kann, wenn die Programmierer nicht dazu in der Lage sind oder die Optimierung nicht einbauen können/wollen, damit die Vec 5 Einheiten vollkommen ausgenutzt werden?

Fakt ist, ATI Stream gibts schon seit ner ganzen Weile, vllt nicht so lange wie Cuda, aber es gibt es nicht erst seit gestern...
Jeder kann sich das SDK ziehen und los Programmieren... Die Arbeit für AMD ist somit erstmal getan, alles weitere liegt an der Fähigkeit der Entwickler bei der Bereitstellung der drauf aufbauenden Software...

Da der Mensch aber wohl immer den Weg des geringsten Widerstands geht, kann ich mir schon vorstellen, warum das so läuft. Denn es soll weit unaufwändiger sein, die 1D Shader der NV Karten auszulasten wie die Vec 5 Shader bei AMD...
Man nehme also ne NV Karte, programmiert ein Tool und stelle dies bereit, dann nehme man ne AMD Karte und baut scheinbar halbherzig ne Implementierung für diese Karten ebenso ein...
Für den Leihen sieht es natürlich so aus, als wären die AMD Karten deutlich schlechter...

Nächstes Problem ist der noch nicht wirklich gemeinsame Standard. Eine Implementierung einer Software auf einen Standard wäre vergleichbar. Eine Implementierung einer Software auf zwei verschiedene Basisgerüste (Cuda, Stream) ist erstmal nur bedingt vergleichbar, keiner weis wo welche Optimierung drin steckt.

Gerade so Sachen wie F@H und Co. haben ja den Nachteil, das es keine bezahlmich Software ist, sprich der Entwickler bekommt kein Geld für eine ordentliche Implementierung auf bestimmte Hardware... Ob das nun mit AMD Karten rennt oder nicht, dem Entwickler des Tools wirds egal sein...
Interessant wirds erst bei Software, ander der Entwickler Geld verdient, hier wird man wohl alles tun, um möglichst das Optimum rauszuholen, um nicht fast 50% des möglichen Marktes im Vornherein zu bremsen ;)
 
Zuletzt bearbeitet:
Blödsinn. Du scheinst tatsächlich APIs wie physx und cuda mit der hardware architektur bzw. deren fähigkeiten und performance zu verwechseln.

Wieso sollte AMD auf ein totes pferd wie physx setzen? In zwei jahren spricht niemand mehr davon weil physik berechnungen dann entweder in dx11 compute-shadern oder opencl ausgeführt werden - und somit auf karten beider hersteller laufen. Problem gelöst, physx tot.

ja und? dann hast trotzdem noch doppelte effizienz bei nvidia :lol: sollte das so kommen (was ich ebenfalls denke) so sieht ATI/AMD sehr sehr alt aus. die frage ist dann ob es dann mit nem offenem protokoll oder halt mit nvidia only laufen wird. bei der derzeitigen effizient ist AMD/ATI im GPGPU-Bereich absolut nicht konkurenzfähig. da gibts nix dran zu rütteln. so und aus diesem grunde kann man zur zeit auch nv-standards nutzen. kommt aufs gleiche raus. einzig und alleine wenn intel mit deren karten mit ins rennen eintritt könnte sich daran was ändern es sei denn AMD/ATI kommt mal in die puschen was ich dank verhalten in der vergangenheit jedenfalls eher bezeifeln möchte.

mit ein grund auch dafür warum so viele nen austritt von NV aus dem highend-grakmarkt für absolut nachvolziehbar hielten. im vergleich dazu lässt sich mit Tesla/quadro deutlich mehr geld verdienen.

Von daher was interessieren NV games ;) das ist nen reines nebenprodukt...

hätte ich mir jedenfalls ins blaue ne 5870 würd ich mir jedenfalls definitiv in den a... beißen, da ich dann ingesamt bei meinen anwendungen SEHR deutlich schlechter dastehen würde.
 
F@H und auch TMPGenc

beides profitiert derbst und ich bin froh zwei günstige nvs bekommen zu haben. bei games bin ich im SLI auch gegen die 5870 noch recht gut ausgestellt. von daher was will ich mit dieser energieschleuder von ATI? Graka-Idling gibbet bei mir nedd
 
F@H und auch TMPGenc

beides profitiert derbst und ich bin froh zwei günstige nvs bekommen zu haben. bei games bin ich im SLI auch gegen die 5870 noch recht gut ausgestellt. von daher was will ich mit dieser energieschleuder von ATI? Graka-Idling gibbet bei mir nedd

Energieschleuder?:fresse:

aber karte nie im idle haben , wo die neuen ATIs nur 20watt verbrauchen :d
 
genau so ne aussage hab ich erwartet -.- der typische gamer hat von sowas ja auch keine ahnung...

Ja da ich nie Videos umcodiere Oo

Und das mach ich mit meiner ATI (und zwar mit software die ATI Stream unterstütz) , hammer ne :rolleyes:


Kennt einen 0 aber kann sagen das man der "typische gamer" sei.

Sowas hab ich erwartet :rolleyes:

Und encodest bestimmt 24/7 videos ne ;) da verbrauchen die NVs ja kein Saft Oo
 
Zuletzt bearbeitet:
NV hat in PhisX investiert, und Spielehersteller nutzen dies so wie sie wollen, also
sollte AMD/ATI mal die Rechte kaufen, oder etwas konkurenzfähiges brinden...
 
Jo nur ist das SDK eben das Problem :d

Gipsel aus dem 3dc hat hierzu auch schon einige Posts ins www gestreut die sehr informativ sind :d

Neja, das ist wohl eher dann die Einstellung des Programmierers ;)
Und trifft voll und ganz oben auf das zu was ich schrieb... Weg des geringsten Widerstands usw. ;)

F@H und auch TMPGenc

gut letzteres kann ich verstehen, aber ersteres?
Da wäre mir wirklcih mein Strom zu schade, der auch so schon teuer genug ist und diesen dann für quasi gar nichts in den Wind zu schießen...
 
meine beiden karten laufen 24/7 auf 100% last - noch fragen? was interessieren mich 20W im idle der 5870 wenn die karten unter 100% last ineffizient im vergleich zu NV sind? na klingelts?

Und da soll man glauben das du auf stromverbrauch achtest :fresse::kotz::stupid:


Aber darum geht es hier ja nicht :heuldoch:

aber bin ja nur "0815 gamer" der kann sich eben keine 8000kWh im jahr leisten :d
 
Zuletzt bearbeitet:
NV hat in PhisX investiert, und Spielehersteller nutzen dies so wie sie wollen, also
sollte AMD/ATI mal die Rechte kaufen, oder etwas konkurenzfähiges brinden...

Ne ganz im Gegenteil, NV scheint wohl die Spielehersteller, die PhysX nutzen wollen noch mit besagten Mitteln auf ihre Bahn lenken zu wollen...

Und ein, wenn AMD sich hier von PhysX/NV abhängig macht, kann das für uns Endkunden nur schlecht sein. NV wird eine Teufel tun und die Stream/OpenCL/DX Compute Shader Implemtierung für PhysX derart performant zu machen, das AMD Karten ihre Vec5 Shader voll ausspielen könnten, damit würden sie sich ins eigene Fleisch schneiden...

Ich erinnere da nur damals an die DX9 Demos für die Geforce FX Karten, die mittels kleinem Hack auch auf ATI Karten liefen, dabei teils sogar besser aussahen und dazu noch deutlich performanter auf dem Nutzerschirm waren...

meine beiden karten laufen 24/7 auf 100% last - noch fragen? was interessieren mich 20W im idle der 5870 wenn die karten unter 100% last ineffizient im vergleich zu NV sind? na klingelts?

Wieso ineffizient?
Die RV870 GPU ist wohl die derzeit effizienteste GPU überhaupt unter Volllast...
 
beim gamen aber bei GPGPU überhaupt nedd wenn du nach leistung/Watt gehst (ja sogar bei der anzhal der karten pro leistung siehts dünster aus) ;)

oder auch anders ausgedrückt: jeder der GPGPU nutzen will und das ganze als workstation/supercomputer etc verwendet wäre sowas von bekoppt wenn ers sich dafür ne ATI kaufen würde. und genau das verstehen/sehen hier die meisten nicht.

und genau darin liegt der grund warum NV soviel geld in dem bereich verdient: es gibt keine konkurzenz ;) und man beachte nun auch noch den Fermi der in dem Bereich nochmal ordentlich nachlegt.

die einzige hoffnung ist, dass es vielleicht an nem mistigen treiber liegt der sich aber schon die letzten zwei jahre nciht verbessert hat oder aber die archuitektur ist für sowas einzig und allein nciht ausgelegt
 
Zuletzt bearbeitet:
beim gamen aber bei GPGPU überhaupt nedd wenn du nach leistung/Watt gehst (ja sogar bei der anzhal der karten pro leistung siehts dünster aus) ;)

oder auch anders ausgedrückt: jeder der GPGPU ausführen will und das ganze als workstation/supercomputer etc nutzt wwäre sowas von bekoppt wenn ers isch dafür ne ATI kaufen würde. und genau das verstehen/sehen hier die meisten nicht.

und genau darin liegt der grund warum NV soviel geld in dem bereich verdient: es gibt keine konkurzenz ;) und man beachte nun auch noch den Fermi der in dem Bereich nochmal ordentlich nachlegt.

die einzige hoffnung ist, dass es vielleicht an nem mistigen treiber liegt der sich aber schon die letzten zwei jahre nciht verbessert hat oder aber die archuitektur ist für sowas einzig und allein nciht ausgelegt

Dank NV dümplet dann mein schöner I5 in Batman mit 20% lasst rum :kotz:

Danke das ich mein system ausgelastet bekomme :fresse:

Denn hier geht es um Games und net um F@H und co :d
 
Zuletzt bearbeitet:
na denn überleg mal wer die entwicklung des games mit finaziert hat ;) ist doch okay wenn man dann für sein geld auch seine lösung umgesetzt haben möchte ;) ATI machts doch genauso (nur [leider] nciht so oft). man denke an HL2

Es lief aber auf NV karte ohne beschnitten zu sein und die Source engine nutz wenigstens die CPU aus!

Soll man PhysX ganz weg lassen für ATI und nicht sagen , kannst es ja einschalten, dann langweilt sich die CPU mehr und man hat max 15FPS :rolleyes:

---------- Beitrag hinzugefügt um 14:30 ---------- Vorheriger Beitrag war um 14:16 ----------

Und wenn NV so auf seinen GPGPU tritt ist , sollen die ne einzelne GPGPU karte rausbringen mit weniger speicher und ohne ausgänge und das dann auch mit jeder anderen hardware erlauben, da könnt ich auch mit leben!
 
oder auch anders ausgedrückt: jeder der GPGPU nutzen will und das ganze als workstation/supercomputer etc verwendet wäre sowas von bekoppt wenn ers sich dafür ne ATI kaufen würde. und genau das verstehen/sehen hier die meisten nicht.

Das Problem liegt aber hier ganz klar nicht an AMD... Sondern an der grottigen Umsetzung der Tools auf die Hardware...

Und wenn du mir jetzt sagst, die Vec 5 ALUs bei AMD GPUs bringen erheblich weniger Leistung als die ALUs bei NV, dann ist das einzig und allein Unfähigkeit/nicht wollen des Programmierers... Wenn dazu bei weniger Leistung auch noch extrem der Strom verballert wird, noch viel mehr!

Aber vllt darf man in heutiger Zeit auch gar keine hochoptimierte Software mehr erwarten? Weil die "blöden" Endkunden kaufen ja sowieso neues, wenns zu lahm wird, also warum denn optimieren, wenns sowieso alle halben-ganzen Jahr neue GPUs gibt!
 
das ist dann aber wieder nen wunsch der aus rein finanziellen gründen aber so nicht kommen wird ;) NV macht nunmal derzeit im vergleich zu AMD/ATI deutlicheren gewinn. von daher können sie es auch durchdrücken. absolut legitim. so funktioniert nunmal der markt ;)

mir passts auch nedd das NV SLI nicht überall freigibt. Ja sogar den inofiziellen hack wird man weiter verhindern wollen. für AMD siehts da also schlecht aus wenn man SLI nutzen möchte. Es gibt genau ein Board was DDR3 + SLI bietet.

Einerseits regt mich das auf, andererseits verständlich da Intel ja gute Lizensgebühren zahlt :heul:

@fdsonne: jaein ;) nv unterstützt die programmierung ja aktiv (games als auch GPGPU). ATI hat aber wohl keine lust darauf bzw hat vielleicht auch kein geld dafür. grund könnte die einstellung sein, dass GPGPU ja nicht soo wichtig ist.
 
Zuletzt bearbeitet:
Und wenn NV so auf seinen GPGPU tritt ist , sollen die ne einzelne GPGPU karte rausbringen mit weniger speicher und ohne ausgänge und das dann auch mit jeder anderen hardware erlauben, da könnt ich auch mit leben!

Tesla?

Aber Speicher brauch es dennoch... Schließlich müssen die Daten ja irgendwo hin ;) Und da sind im Vergleich zur Rechenpower 1-2GB oder auch 4GB noch recht wenig...
 
Tesla?

Aber Speicher brauch es dennoch... Schließlich müssen die Daten ja irgendwo hin ;) Und da sind im Vergleich zur Rechenpower 1-2GB oder auch 4GB noch recht wenig...

Naja ich will mir nicht extra ne kiste neben mir stellen ^^


Mein eher was kleines für den heimanwender und nicht für Firmen :d
 
@fdsonne: jaein ;) nv unterstützt die programmierung ja aktiv (games als auch GPGPU). ATI hat aber wohl keine lust darauf bzw hat vielleicht auch kein geld dafür. grund könnte die einstellung sein, dass GPGPU ja nicht soo wichtig ist.

Das trifft vllt im HPC Bereich zu... Aber wir reden doch hier vom Endkunden Konsumer Mart und Produkten die unter die GPL laufen... Also dort wo die von dir genannten Tools reinfallen.
Und da tut NV nen Teufel dafür... Oder meinst du ich bekomme Geld von NV, wenn ich dort anruf und sage, ich will ein Tool basierend auf Cuda programmieren?
Mit Sicherheit nicht!


Im übrigen gab es diese TWIMTBP Problematik hier schon mal, Fakt ist, keiner weis genau, was dort am Ende überhaupt NV macht und was nicht...
Scheinbar denken viele das NV da wirklich massiv Arbeit rein steckt, ich sehe das aber etwas differenzierter, ich glaube ehrlich gesagt nicht, das NV da soo brachial viel Arbeit investiert... Im schlimmsten Fall zahlt NV nur das das Logo am Anfang erscheint, sonst passiert gar nix!

Beispiel AC, war doch auch ein TWIMTBP Titel, lief aber nachhaltig auf AMD Karten besser, und das nicht zuletzt wegen DX10.1... Dann kam NV und holte das Brecheisen raus ;)

Naja ich will mir nicht extra ne kiste neben mir stellen ^^


Mein eher was kleines für den heimanwender und nicht für Firmen :d

http://geizhals.at/deutschland/a389202.html
Läuft wohl in sogut wie jedem aktuellen Board!
 
Zuletzt bearbeitet:
Also am traurigsten finde ich ja, dass sie das Zusammenspiel ATI zum Rendern / nVidia für Physx sperren mussten :( Ich hätte mir glatt eine kleine NV Karte zugelegt um Physx nutzen zu können und halt so Dinge wie Batman voll spielen zu können, auch wenn ich das ja eigentlich nicht mag, diese Geldmacherei durch proprietäre APIs und "schmieren" (sorry aber nichts anderes ist das in meinen Augen) von Spieleherstellern.
Meiner Meinung nach war das auch aus finanzieller Sicht kein so arg schlauer Schachzug, wie gesagt, das Geld für eine kleine 9800GT oder so hätten sie von mir bekommen, damit ich Physx nutzen kann. Aber dafür auf die überlegene und dx11 fähige Graka verzichten? Niemals, da verzichte ich lieber auf Batman, auch wenns ein tolles Spiel ist.
 
Sorry für mich sind 1000euro+ nichts für den heimanwender

Es ging ja nur um das Prinzig und darum, da man nicht extra den kompletten "Kübel" dazu brauch...
Das Ding gibts ja auch noch als tutti kompletto 19" Kiste mit 4 der Karten verbaut...

Kleinere Karten wären sicher auch nicht das Problem, nur wer soll das kaufen?
Der privat Anwender? Für was denn... Gibt ja nichtmal Software die im Privatbereich da überhaupt nutzen draus zieht...
Wenn man mal von irgendwelchen Video encodierungs Tools absieht, aber auch hier stellt sich mir die Frage, ob der Endanwender das nun derart oft am Tag macht, das ihm die Zeitansparung so viel Kosten sparen würde, um den Preis einer derartigen dedizierten Lösung zu rechtfertigen...

Ansonsten kauf halt irgend was kleines mit Cuda Untersütztung, solange es sich nicht um den Gamingbereich dreht, stehen dir die Cuda Türen auch als zweit/dritt GPU vollkommen und gänzlich offen...
 
ich hab ja noch ne 9800GT gebraucht hier rumfliegen , hatte die mit modtreiber auch mit einer 5770 laufen um batman zu testen und die musste sofort wieder weichen :d
 
@fdsonne: zumindest bei F@H hat NV recht aktiv supportet ;)

Ohne jetzt ne Grundsatzdiskusion über F@H auslösen zu wollen, aber was hab ich als Endanwender von F@H?
Außer hohen Stromverbrauch?

Aber selbst wenn NV da die Finger im Spiel hatte, sollte doch wohl klar sein, warum es keine brauchbare Lösung für AMD Karten gibt. Einfach weil die Anwendung nicht in der Lage ist, die Ressourcen der AMD Karten derart zu nutzen...
Ich denke aber auch mal für F@H wird AMD auch nichts investieren, weil es irgendwie nix nutzt. Weder AMD noch dem Endanwender...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh