Sauerei: Nvidia limitiert künstlich Batman AA bei Einsatz der CPU für Physik

Nein, so sieht es eben nicht aus. Wenn nVidia Hardware anbietet, die besser als die Konkurrenz arbeitet, dann ist das eine Sache. Aber die Konkurrenz über Dritte bewusst auszubremsen, ist schlichtweg wettbewerbswidrig. nVidia ist einfach nur noch das letzte. Keine gescheite und konkurrenzfähige Hardware, stattdessen wird ein DIY Fermi in die Luft gehalten. Und bei Software wird geschummelt, wo es nur geht. Ich kann nur hoffen, der Markt wird sie in allen Bereichen dafür abstrafen. So etwas hat mit Wettbewerb und Kundenorientierung rein gar nichts mehr zu tun. Das sollten auch die hartgesottensten nVidia Fans endlich mal begreifen. nVidia schädigt den gesamten Markt.

Immer wieder lustig dass manche Leute glauben ATI würde einen zugekauften und weiterentwickelten Standard einfach so der Konkurrenz öffnen.
Wenn ATI heutzutage noch ein eigenständiges Unternehmen wäre, womöglich nicht. Aber AMD hat eine andere Philosophie und macht das auch. Siehe Hypertransport. Ursprünglich von AMD entwickelt, ist dies mittlerweile eine offener Industriestandard ohne anfallende Lizenzgebühren. ;)

Naja, eigentlich setzen sich am Markt hauptsächlich proprietäre Dinge durch. zB Windows
Aber auch nur, wenn genügend Support grosser Unternehmen vorhanden ist. Das fehlt einfach. Bis auf nVidia interessiert PhysX momentan niemanden.

von daher was will ich mit dieser energieschleuder von ATI? Graka-Idling gibbet bei mir nedd
Haha, guter Witz. Bei der 4000er Serie wurde sich noch über die Idle Leistungsaufnahme beschwert. Jetzt, wo die Radeons besser sind, interessiert das plötzlich keinen nVidia Besitzer mehr. Und den Rest kannst du dir sparen. GPGPU ist noch ein Nischenmarkt. Erst recht bei Desktops. Zumal es hier stark auf die jeweilige Anwendung ankommt. Was Games betrifft, da stand nVidia schon bei der 4000er Serie bezüglich Energieeffizienz schlechter da. Momentan sehen sie absolut kein Land mehr. Wenn du ein SLI Gespann hast, hast du die Energieschleuder und nicht ATI. :rolleyes:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sehr sinnvolles Bench, zumal es auf den DX10.1 Karten von Ati nicht einmal mit Direct Compute läuft, trotz passendem Treiber und DX11 auf dem Rechner.
 
Sehr sinnvolles Bench, zumal es auf den DX10.1 Karten von Ati nicht einmal mit Direct Compute läuft, trotz passendem Treiber und DX11 auf dem Rechner.
das liegt nicht am Benchtool oder an DirectCompute, das liegt am aktuellen Catalyst.
Der unterstützt für die DX10/10.1-GPUs noch kein DirectCompute.
 
zum thema F@H

irgendwo hatte ich gelesen das die ATI-Karten aktuell bei DP die 5d in ne 1d einheit umwandelt und diese nur so nutzt,
das erklärt ja wohl die differenz von eigentlich 2,7fach rechnerisch zu 0,55fach real
das ist ziemlich genau der faktor 5

wieso das so ist? keinen plan, ggf. ist die sdk/treiber ebene ebend noch so eingestellt, ich weiß auch gar nicht inwieweit DP mit allen 5 vecoreinheiten funzen würde, ich glaueb dazu wären je 2 einheiten nötig, dann würde man also quasi nur 4 von 5 einheiten nutzen können und es ergäbe sich "nur" eine verdoppelung der aktuellen leistung, sprich ca. 10% fixer als die aktuellen nvidias

zum thema gt300,
da warten wir erts mal dessen verfügbarkeit ab, die fläche wird ja riesig, was am ende ggf. gerade im noch nicht ganz runden 40nm prozess ein problem werden könnte, sogesehen ist bei nvidia bisher alles noch n papiertieger, der ohne frage plötzlich leibhaftig da stehen könnte, aber es könne ebend auch sein, das er mit stumpfen zähnen kommt.

zum eigentlichen thema physx:
wayn interessierts
das braucht man nicht zum spielen, wenn einige spiele ohne physx nicht so schön laufen, einfahc nicht kaufen.
das einzieg worübe rman sich ärgern kann, wenn man zu ner 5870 ne 9800gt einbaut kann man physx leide rnicht nutzen dank nvidia.
warum verstehe ich persönlich nicht, das würde nen zusätzlichen markt für kleinere karten schaffen, aber ok, das lassen mer so dahingestellt ;)
 
Stimmt, werd langsam alt. War für mich irgendwie das selbe :d.

zu F@H

Es gibt ja z. B. für Milkyway@Home einen Ati GPU optimierten Client der die Karten voll ausnutzt, sowas fehlt halt noch für F@H.
 
Die Gänsefüsschen sind genau richtig. Es gibt keinen Stellenwert ausser Werbung ;)
 
irgendwo hatte ich gelesen das die ATI-Karten aktuell bei DP die 5d in ne 1d einheit umwandelt und diese nur so nutzt,
das erklärt ja wohl die differenz von eigentlich 2,7fach rechnerisch zu 0,55fach real
das ist ziemlich genau der faktor 5

wieso das so ist? keinen plan, ggf. ist die sdk/treiber ebene ebend noch so eingestellt, ich weiß auch gar nicht inwieweit DP mit allen 5 vecoreinheiten funzen würde, ich glaueb dazu wären je 2 einheiten nötig, dann würde man also quasi nur 4 von 5 einheiten nutzen können und es ergäbe sich "nur" eine verdoppelung der aktuellen leistung, sprich ca. 10% fixer als die aktuellen nvidias

Warum das so ist?
Es werden 4 der 5 5D Einheiten zusammengefasst und rechen an je einer DP Operation. Sprich die Leistung fünftelt sich, die letzte der 5 Einheiten kann das nicht und liegt brach ;)
So ist der Ansatz im allgemeinen zu verstehen...

Normalerweise hast du aber recht, es sollten eigentlich 2/5 Einheiten für eine DP Operation benötigt werden, warum aber derzeit 4/5 Einheiten laufen, weis ich nicht. Man spricht aber seit Jahr und Tag (also dem R600) davon, das sich die DP Leistung im Gegensatz zur SP Leistung fünftelt...

Das Problem ist aber, warum rechnen NV Karten dann aber scheinbar in SP?
Also irgendwie ist das Tool noch ein wenig undurchsichtig für den Endanwender ;)

jopp die compute shader, dadurch wird physx sowieso den "Stellenwert" verlieren, den es jetzt hat

Quatsch mit Soße...
PhysX als Engine hat überhaupt nix mit einem Standard für GPGPU Computing zu tun.
 
wenn ich so einen schwachsinn schon wieder lesen muss
Klar kann man es verdrängen. Aber dadurch ändert sich an den Tatsachen nichts. ;)

wieso das so ist?
Das ist ganz einfach. Die Streamprozessoren sind bei ATI 32-bittig, also einfache Genauigkeit, wo jeweils einer MUL + ADD rechnen kann. Man schaltet für 64-bit (doppelte Genauigkeit) dann die Streamprozessoren eines Shaders zusammen, um ein MUL und ein ADD pro Takt zu erhalten.
Ich hoffe, die nächste Architektur wird dann echte 64-bit Rechenwerke (MUL + ADD) besitzen und einfache Genauigkeit durch Teilung in 2x 32-bit realisiert. Sozusagen der umgekehrte Weg. Wobei das immer eine Frage der Effizienz ist. Im Hinblick auf GPGPU wird man aber nicht um doppelte Genauigkeit herum kommen. Ein Weg wie nVidia, also separate SP und DP Einheiten, ist für mich keine gute Lösung.
 
Ein Weg wie nVidia, also separate SP und DP Einheiten, ist für mich keine gute Lösung.

Ist bislang, was große Maßstäbe angeht (die Bastelei mit DP:SP 1:12 beim GT200 als ersten DP-"Versuch" gesehen), erstmal nur Speku. Man gewinnt den Eindruck, dass Lösungen von nVidia grundsätzlich für einige hier nicht gut sein können ;) ATi hat eine brachliegende Transcendental Unit, die auch noch deutlich größer ist als jede der restlichen 4 MADD-ALUs. Das ist für mich per se ebenfalls noch keine gute Lösung.

edit: Ich wunder mich übrigens schon wieder, wie das Ergebnis einer 32B * 32B - Multiplikation wieder in 32B breite Datenpfade passen soll.

edit2: Achja, zum Thema. Als Verfechter von Initiativen wie OCW des Massachusetts Institute of Technology (dem verdanke ich zuviele schlaflose Nächte :d) bin ich der Überzeugung, dass Wissen und damit die Ergebnisse von Wissenschaft (wozu auch R&D an dieser Stelle gehört) prinzipiell offen sein sollten (Gruß an GNU). Insofern finde ich es natürlich nicht "gut", dass man Mitbewerber auf derartige Art und Weise ausblockt. Das Problem ist aber, dass das aus Sicht von nVidia keine moralische Entscheidung ist, sondern da geht es in erster Linie ums Geld. Und deswegen kann ich die Entscheidung verstehen.
Wer hier übrigens erzählt hat, dass heutige Prozessoren PhysX ja wohl noch locker stemmen könnten, wenn man sie nur ließe, redet Käse.
 
Zuletzt bearbeitet:
lord das mit dem lkäse ist so ne sache,
für komplett ist klar, das reicht niemals, da kann der prozessor einfach nicht genug kerne haben ;)
aber, das ein i5 bei 20% last rumdümpelt udn nicht mal im ansatz ein paar minimale sachen auf der cpu berechnen darf ist ja auch käse ;)
 
lord das mit dem lkäse ist so ne sache,
für komplett ist klar, das reicht niemals, da kann der prozessor einfach nicht genug kerne haben ;)
aber, das ein i5 bei 20% last rumdümpelt udn nicht mal im ansatz ein paar minimale sachen auf der cpu berechnen darf ist ja auch käse ;)

Davon hab ich ja auch nicht geredet. ;)
 
http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html

Egal wie schnell die CPU, Nvidia hat dafür gesorgt das die Framerate bei Physikberechnung über die CPU nie spielbare Bereiche erreicht um die eigenen Grafikkarten besser aussehen zu lassen.

Damit eine schnelle CPU nicht doch Radeonkarten anständige Frameraten mit aktiviertem PhysX ermöglicht, wird die verfügbare Leistung einfach nicht abgerufen und der Prozessor nur teilweise ausgelastet und langweilt sich, zudem wurde das Multithreading der PhysX Engine deaktiviert damit diese maximal mit einem Thread läuft.

Was haltet ihr davon? Ich halte das für eine riesen Sauerei.
Natürlich ist das eine Riesen-Sauerei, und es ist auch nicht die erste, die von niVida kommt :shake:

NiVida geht ganz stark der Popo auf Grundeis. Zuerst sind sie zu unfähig, eine DX10.1-Karte rauszubringen, jetzt sind sie zu unfähig, eine DX11-Karte rauszubringen. Fermin ist bis jetzt nur Vaporware, nichts mehr als ein Papiertiger - es gibt nicht nicht einmal einen funktionierenden Prototypen. Kürzlich erst ist Münchhausen-Huang rausgerutscht, daß die Features von Fermi erst bei der geplanten Präsentation auf der Ces im Januar vorgestellt werden - es steht also noch nicht einmal das endgültige Feature-Set fest, sonst hätte schon lauthals damit geprahlt, wie toll es doch ist.

Kurzum, niVida sieht verdammt schlecht aus. Um das auszugleichen, versuchen sie jetzt mit allerlei unsauberen Tricks, die Konkurrenz schlecht aussehen zu lassen, wie eben hier bei dieser Sauerei in Batman Arkham Asylum.
 
Also ich kann das zu 100% nachvollziehen, was nv Und mit Supercomputing lassen sich Mrd. verdienen, mehr als mit Games.. und obwohl die 5870/die dazugehörige Stream auf dem Papier schneller sind, verlieren sie Haushoch gegen die "alten" NV Konkurrenten.

das mit dem Haushoch würd ich so nicht sagen :)
5D Shader sind schwerer zu programmieren, in DP wird eh erst Fermi mal endlich vorbeikommen.. und bei Folding@Home wird ja auch über NV und kleine Workingsets geredet. Entscheidend werden wohl eh Dinge wie die Threadscheduler und lokaler Cache sein, solche Sachen kommen z.B. hier vor:

http://forum.beyond3d.com/showthread.php?t=55330
http://forum.beyond3d.com/showthread.php?t=55344
http://forum.beyond3d.com/showthread.php?t=55448
 
Zuletzt bearbeitet:
Natürlich ist das eine Riesen-Sauerei, und es ist auch nicht die erste, die von niVida kommt :shake:

NiVida geht ganz stark der Popo auf Grundeis. Zuerst sind sie zu unfähig, eine DX10.1-Karte rauszubringen, jetzt sind sie zu unfähig, eine DX11-Karte rauszubringen. Fermin ist bis jetzt nur Vaporware, nichts mehr als ein Papiertiger - es gibt nicht nicht einmal einen funktionierenden Prototypen. Kürzlich erst ist Münchhausen-Huang rausgerutscht, daß die Features von Fermi erst bei der geplanten Präsentation auf der Ces im Januar vorgestellt werden - es steht also noch nicht einmal das endgültige Feature-Set fest, sonst hätte schon lauthals damit geprahlt, wie toll es doch ist.

Kurzum, niVida sieht verdammt schlecht aus. Um das auszugleichen, versuchen sie jetzt mit allerlei unsauberen Tricks, die Konkurrenz schlecht aussehen zu lassen, wie eben hier bei dieser Sauerei in Batman Arkham Asylum.

ich verstehe immernoch nicht wo das problem ist!
non-nv-besitzer sollen halt kein physx nutzen dürfen! immerhin hat nv dafür viel geld ausgegeben. keine firma kauft eine technik ein, wenn es auch user ohne die entsprechende hardware nutzen könnte! also verhindert man, das andere anwender, die kein geld in die eigene tasche spielen, diese technik nutzen können!
jeder schützt seine eigene technik, damit man selber damit geld verdient! immerhin muss das ausgegebene geld auch wieder reinkommen
also physx aus und gut is!

ich hab auch eine hd4870 und hab kein problem mit der angelegenheit!

der publisher/entwickler entscheidet von wem sie gelder annehmen und in wie weit sie ihr produkt anpassen oder verändern!
 
Typisch Nvidia, ich frag mich wer bei dem Drecksladen überhaupt noch kauft.
Jeder der so ein Produkt in seinem Rechner hat sollte sich schämen!
 
Zuletzt bearbeitet:
Eigentlich wird die Sache langsam aber sicher sinnlos...

jedem das seine... ich fand nVidia ne ganze Zeit lang superior, da hätte mich keiner dazu gekriegt auch nur ne ATI anzugucken...

Aber was die sich so über die Jahre alles geleistet haben, hammer... ich war mal so nen Depp der sich ne 9800 GX2 zum Releasepreis geholt hat weil ich mir einfach sagte das die Firma mir das Wert sei... weit gefehlt... Die Kundenarbeit und wie sich die Firma in der Öffentlichkeit präsentiert mit Umbenennungen, Fakes, Modifizierten Treibern für bessere Benchmarkergebnisse, sperren von Treiberfunktionen nur weil ne andere Hauptgrafikkarte verbaut ist und letztendlich herunterspielen von Tatsachen die aufgrund eigener Managementfehler (unterschätzen von ATI zum Bleistift) passiert sind haben mich weit von nVidia weggebracht.

Ich werde mir glaub ich nie wieder ne nVidia-Karte im System verbauen... wenn ATI irgendwann durch irgendwas Pleite geht würde ich mir lieber ne S3 oder Matrox im System verbauen als so nen Stück verlogenes, geldgeiles und total Kundenunfreundliches Stück Hardware...

just my 2 Cents...

R.I.P. nVidia... ihr wart mal echt ne dufte Firma... :shake:
 
Zuletzt bearbeitet:
Typisch Nvidia, ich frag mich wer bei dem Drecksladen überhaupt noch kauft.
Jeder der so ein Produkt in seinem Rechner hat sollte sich schämen!

Ich schäm mich nicht, im Gegenteil.
Ich freu mich ne vernünftig funktionierende Grafikkarte mit ner brauchbaren Peformance im Rechner zu haben was ich zu meinen ATI-Zeiten leider nicht behaupten konnte (Radeon 9700 Pro, Performance geil, Treiber dreck, Haltbarkeit auch, gut möglich dass sich das inzwischen wieder geändert hat aber ich hab keine große Lust auf Experimente).

Die Diskussion kann ich allerdings durchaus nachvollziehen.

Dass man die Software PhysX Engine künstlich beschneidet (die ohnehin nie die Performance erreichen kann wie auf ner NV GPU) find ich nicht in Ordnung.
Schließlich ist Software PhysX ja vorhanden und möglich und zumindest wenn man die Effekte ein wenig reduziert sicherlich schnell genug.
Sich dann extra die Arbeit zu machen um die Bremse reinzuhauen find ich ziemlich link.

Dass NV nicht zulässt dass PhysX auf ATI Karten läuft find ich dagegen nachvollziehbar und OK, schließlich hat NV ne nette Summe gelöhnt um die Technologie zu übernehmen und nach CUDA zu portieren.

Und Leute, es gibt keinen offenen Standard für Physik auf Grafikkarten.
Es gibt offene Standards für x-beliebige Berechnungen auf Grafikkarten, die heissen OpenCL bzw DX11 Compute Shader und auf die müsste Physx erstmal portiert werden was NV sicherlich nicht (ohne weiteres) machen wird.
 
Es gibt offene Standards für x-beliebige Berechnungen auf Grafikkarten, die heissen OpenCL bzw DX11 Compute Shader und auf die müsste Physx erstmal portiert werden was NV sicherlich nicht (ohne weiteres) machen wird.

so ganz sicher bin ich mir da nicht; schließlich böte sich dadurch die possibility, zusätzlich durch lizenzen geld zu verdienen :fresse: allerdingsn muss openCL erstmal as stable as it gets laufen, um dies umzusetzen. das wird wohl noch bissle dauern...

wer weiß...?
 
ich verstehe immernoch nicht wo das problem ist!
non-nv-besitzer sollen halt kein physx nutzen dürfen! immerhin hat nv dafür viel geld ausgegeben. keine firma kauft eine technik ein, wenn es auch user ohne die entsprechende hardware nutzen könnte! also verhindert man, das andere anwender, die kein geld in die eigene tasche spielen, diese technik nutzen können!
jeder schützt seine eigene technik, damit man selber damit geld verdient! immerhin muss das ausgegebene geld auch wieder reinkommen
also physx aus und gut is!

Du vermischt hier zwei Aspekte...
Es gibt PhysX als Engine mit einer implementierung für CPUs und für Cuda...
Letztere ist Hardwaregebunden, soweit auch verständlich, das man hier auf NV Hardware angewiesen ist und NV alles gegen setzt, um andere Sachen zu unterbinden...

Aber es gibt viel viel mehr Games, die zwar PhysX als Physikengine nutzen, aber eben nur auf eine CPU Implementierung setzen, eben um den gesamten Markt zu erschließen und nicht nur die User mit NV Hardware... (Beispiel Risen)

Und hier liegt doch der Skandal bei der Geschichte, NV dränkt durch diese Aktion die Leute zu ihrer Hardware, obwohl das ganze vllt gar nicht vom Kunden gewünscht ist und erweckt so den Eindruck, Konkurenzkarten würden das nicht packen...

Ich kann mir gut vorstellen, das selbst bei reiner CPU implementierung von PhysX bei erkannter AMD Hardware PhysX nur auf einem Thread läuft... Aber bei erkannter NV Hardware volle Coreauslastung angelegt wird (müsste man mal nachtesten)


Übrigens PhysX komplett aus ist auch nicht... Denn der Spieleprogrammierer müsste in dem Fall jeden Effekt/jede Funktion im Code einmal für PhysX und einmal gänzlich ohne schreiben... (was nahezu doppelten Aufwand bedeutet)
Daher wird es ja idR so gemacht, das bei GPU implementierten PhysX Games bei nichtverwenden dieser Sache auf die CPU runtergeschalten wird (was ja vollkommen legitim ist) aber man dadurch nicht so schöne Effekte hat...

PhysX ist eben in erster Linie eine Physikengine und kein Hardware Feature, aber NV sieht es wohl zunehmend eben als Hardwarefeature...
Ich denke aber, die Spielehersteller werden da früher oder später nicht mehr mitspielen, es gibt andere Engines, wo von auszugehen ist, das diese auf jeglicher Hardware laufen werden... Ergo auch mehr Kunden erreichen werden. Dazu noch unbeschränkt auf die CPU zugreifen können, wenn dies benötigt werden sollte.

Ein Blick hinter den Tellerrand HWLuxx zeigt auch, das die Masse der Karten wohl nichmal in der Lage sein wird, max. Details in halbwegs aktuellen Games zu fahren, wenn dann dazunoch extreme Physikberechnungen kommen, kommt keine spielbare FPS Rate mehr rum...
Man wird also im Physikengine Bereich immer auf eine gut funktionierende CPU Implementierung angewiesen sein, wenn NV dies verhindert, wird die Engine schnell uninteressant ;)
 
Warum das so ist?
Es werden 4 der 5 5D Einheiten zusammengefasst und rechen an je einer DP Operation. Sprich die Leistung fünftelt sich, die letzte der 5 Einheiten kann das nicht und liegt brach ;)
So ist der Ansatz im allgemeinen zu verstehen...

Normalerweise hast du aber recht, es sollten eigentlich 2/5 Einheiten für eine DP Operation benötigt werden, warum aber derzeit 4/5 Einheiten laufen, weis ich nicht. Man spricht aber seit Jahr und Tag (also dem R600) davon, das sich die DP Leistung im Gegensatz zur SP Leistung fünftelt...

Das Problem ist aber, warum rechnen NV Karten dann aber scheinbar in SP?
Also irgendwie ist das Tool noch ein wenig undurchsichtig für den Endanwender ;)



Quatsch mit Soße...
PhysX als Engine hat überhaupt nix mit einem Standard für GPGPU Computing zu tun.
Ich finde das kein Quatsch....wenn es möglich ist Herstellerunabhängig die Physik über die GPU (schnittstellen seien jetzt mal dahingestellt) abzuwickeln, wieso sollten non nvidia pushed Entwickler auf physx setzen und damit direkt ATI Besitzer ausgrenzen? Das wäre unwirtschaftlich ;)
Physx wird es dann nur noch da geben, wo nvidia geld fließen lässt und auf Dauer kann auch ein Nvidia sich das nicht leisten.
Also so ein Quatsch finde ich das gar nicht, aber vielen dank für deine ausführliche Begründung ;)
 
Eigentlich wird die Sache langsam aber sicher sinnlos...

jedem das seine... ich fand nVidia ne ganze Zeit lang superior, da hätte mich keiner dazu gekriegt auch nur ne ATI anzugucken...

Richtig, jedem das seine. Man sollte sich Grafikkarten aufgrund ihrer Fähigkeiten oder Leistung kaufen und nicht weil man die Marke gut oder schlecht findet.

Aber was die sich so über die Jahre alles geleistet haben, hammer... ich war mal so nen Depp der sich ne 9800 GX2 zum Releasepreis geholt hat weil ich mir einfach sagte das die Firma mir das Wert sei... weit gefehlt... Die Kundenarbeit und wie sich die Firma in der Öffentlichkeit präsentiert mit Umbenennungen, Fakes, Modifizierten Treibern für bessere Benchmarkergebnisse, sperren von Treiberfunktionen nur weil ne andere Hauptgrafikkarte verbaut ist und letztendlich herunterspielen von Tatsachen die aufgrund eigener Managementfehler (unterschätzen von ATI zum Bleistift) passiert sind haben mich weit von nVidia weggebracht.

Was du da aufgelistet hast hat so gut wie jede Firma schon gemacht die sich mit Hardware beschäftigt die sich über Leistung verkauft. Man sollte es zwar nich schön reden im Sinne von "die dürfen das, andere hamms ja uch gemacht", aber wie manche sich von irgendwelchen Kleinigkeiten beeinflussen lassen ist schon wirklich übertrieben. Wahrscheinlich haben 90% der Leute die sich hier tobend über Batman auslassen das Game überhaupt nicht gespielt bzw würden die Sache anders sehen wenn ATI das ganze getan hätte (Aufregung gäbe es natürlich trotzdem, nur wären Angreifer dann Verteidiger). Dummis hat schon 3dfx gezeigt, allerdings kann einem das doch egal sein, solange ich eine Ware nicht kaufen kann bringt es mir doch eh nichts was wo gezeigt wird.

Ich werde mir glaub ich nie wieder ne nVidia-Karte im System verbauen... wenn ATI irgendwann durch irgendwas Pleite geht würde ich mir lieber ne S3 oder Matrox im System verbauen als so nen Stück verlogenes, geldgeiles und total Kundenunfreundliches Stück Hardware...

Warum Kundenunfreundlich? Was war dir direkt gegenüber denn unfreundlich?


just my 2 Cents...

R.I.P. nVidia... ihr wart mal echt ne dufte Firma... :shake:

Mal ganz ehrlich, man kann Götzenbildung auch übertreiben.
 
nur mal so etwas was mir gestern über den weg lief ;)

For your information, I tried to talk to AMD about this benchmark, but AMD doesn't support consumer projects like this one, or projects like ATI Tray Tools [despite the fact they use it themselves]. It appears they only support multi-billion developers like Adobe.

genauso wie damals linux-treiber. war wahrscheinlich auch nur nen "funproject"

oder auch

And last word about my drivers expectations. I really wait for a DirectCompute enabled drivers for HD4xxx. I know ATI wants to sell DX11 cards but it's not fair that you can have DirectCompute on 9400gt and not on HD4890...

sollte dem so bleiben fehlen mir die worte ;) nur als vergleich dazu: NV hat GPGPU rückwirkend bis zum G80 ermöglicht.

soviel zum thema ATI und der gute nette Hersteller :lol: genau deswegen werd ich mich nicht schämen ;) die quittung für fehlende innovation kommt garantiert (bzw CPU-seitig kam sie ja schon).

zitate hierraus entnommen: http://www.ngohq.com/news/16735-directcompute-benchmark-0-25-a.html#post84991

des ist wahrscheinlich auch der grund, warum es unterstützung bei der spieleentwicklung seitens ATI/AMD nur sehr selten gibt
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh