NVIDIA: Keine absichtlichen Bugs in Spielen für die Konkurrenz

Es gab ja ein Angebot von NV an ATI, um welche Summen oder dergleichen es ging weiß ich nicht, nur das ATI abgelehnt hat.

Da hab ich was anderes gehört, Nv soll ATI nie Angeboten haben Physix zu lizenzieren (lt. Aussage seitens ATI).

Spielt aber eh keine Rolle, da sie (verständlicherweise) eh abgelehnt hätten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ob eine eigene Entwicklung nicht teurer ist als die PhysX zu lizensieren sei mal dahingestellt, aber das man das ganze auch von den Entwicklern verlangen kann ist natürlich ein Punkt.



Es gab ja ein Angebot von NV an ATI, um welche Summen oder dergleichen es ging weiß ich nicht, nur das ATI abgelehnt hat.

Was ich nur nicht verstehe, NV will einerseits von AMD kassieren, um eine PhysX Version auch auf AMD Karten bieten zu können, aber andererseits zahlt jedes Entwicklungsstudio für die Nutzung von PhysX auch die Lizenzen an NV...

Ergo NV will doppelt Kohle haben...


Rein als Außenstehende Person würde ich sagen, NV sollte sich mit den Lizenzen für PhysX zufrieden geben und PhysX auf einen allgemeinen GPGPU Standard aufbauen. Somit würden auch mehr Entwicklungsstudios über kurz oder lang GPU PhysX verwenden und NV macht mehr Gewinn durch mehr Lizenzen... Aber soweit scheint es vllt nie zu kommen...
Zumindest nicht solange NV nicht in Zugzwang gerät.

Aber warten wir es ab, ich gehe stark von einer GPU Version von Havok für alle GPUs aus, dann werden wir sehen, was NV mit PhysX macht ;) und vor allem, wie das Verlangen der Entwicklungsstudios nach PhysX noch ausschaut ;)
 
Ganz schön kurzsichtig. Vielleicht könnten sie etwas auf die Beine stellen und nVidia das Leben schwer machen. Das scheint Dir wohl sehr wichtig zu sein. Aber ansonsten werden sie auch alles unternehmen, um marktführend zu bleiben. Und da beißt sich die Katze wieder in den Schwanz, denn auch das geht naturgemäß gegen die Mitbewerber, also auch AMD.


Will intel nicht auch nenen Grafikchip rausbringen?
Nagut also das mit PhysikX kann ich verstehen hat sich Nvdia ja ausgedacht (sry aufgekauft)das dieses nur mit ihren GraKas funktioniert ist klar und da habe ich nichts dagegen.
Aber so sachen wie das ausgerechnet Nvidia optimierte Spiele manchmal gar nicht auf ATI GraKas spielbar sind oder man sogar Softwareseitige restriktionen der Grafik bekommt nur weil man eine ATI Grafikkarte benutzt ist nicht okay zumal wenn es so standarts wie AA sind.
Was ich von AMD sehr gut finde ist das sie ja eine PhysikX konkurenz bringen welche offen ist und nicht auf ATI begrenzt.

Wogegen ich aber nochwas habe das aufeinmal ohne grund mit einem Patch ATi Features verschwinden obwohl sie gut liefen nur weil Nvidia das nicht hat? Dann müsste man es auch mit PhysikX machen ich finde es echt traurig das wir spieler darunter leiden müssen klar sind das spezielle Features die den anderen für einen interessanter machen Freie (soziale?) Marktwirtschaft aber wenn der andere dafür zahlt das die konkurenz features entfernt werden ist das traurig :( ich finde wenn ATi kein PhysikX unterstützt sollten die entwickler trotzdem anbieten die effekte ein oder auszuschalten für die leute mit Highend systemen die es nicht nötig haben eine PhysikX karte zu benutzen.
Hoffe das es bald in Spielen PhysikX und das von AMD geben wird für mehr gerechtigkeitv und vor allem für UNS!

Machen sie. Im Moment sehen die zu, dass >20 Spiele DX11 Unterstützung erhalten.
Deswegen wurde Dirt2 doch verschoben, weil ATi denen die zusätzliche Entwicklungszeit für die DX11 Features Implementierung bezahlt.

Crysis 2 wird wohl ein rotes und kein grünes Logo im Intro haben. ^^

Das würde mich interessieren hast du Quellendazu :)

naja, die schlechten GDDR3 Karten von NV sind aber dafür nicht gerade die langsamsten.
Oder sind alle GDDR4 Karten an allen GDDR3 Karten von NV vorbeigezogen ?
oder ist es so, das die ATI karten ohne GDDR4 noch weiter abgeschlagen gewesen währen, an den "total Verallteten" GPUs von NV ?
Naja Hardwaretechnisch verpennt eher Nvidia als ATi.
GDDR5/GDDR3 55nm/65nm bzw. 55nm/40nm.

Das Problem ist, dass AMD/ATi das Geld nicht hat.^^

Kann man nicht vergleichen weil ATI Speicheranbindung 256Bit und Nvidia 3XXBit wenn ich mich nicht irre ATi sollte auch mal auf das 512Bit interface zurück greifen auch wenn dieses teuerer wäre somit wäre Nvidia vll. gezwungen auch auf gddr5 zurück zugreifen aber imo nutzen sie halt das größere interface als vorteil gegenüber dem schnelleren speicher atis wenn ati aber ein schnelleres interface und schnelleren speicher benutzt dürfte es schwer für Nvidia werden :)
 
Zuletzt bearbeitet:
Will intel nicht auch nenen Grafikchip rausbringen?
Nagut also das mit PhysikX kann ich verstehen hat sich Nvdia ja ausgedacht das dieses nur mit ihren GraKas funktioniert ist klar und da habe ich nichts dagegen.
Aber so sachen wie das ausgerechnet Nvidia optimierte Spiele manchmal gar nicht auf ATI GraKas spielbar sind oder man sogar Softwareseitige restriktionen der Grafik bekommt nur weil man eine ATI Grafikkarte benutzt ist nicht okay zumal wenn es so standarts wie AA sind.
Was ich von AMD sehr gut finde ist das sie ja eine PhysikX konkurenz bringen welche offen ist und nicht auf ATI begrenzt.

Ausgedacht hat da NV nichts, sie haben es aufgekauft!
 
Es heist immer die paar Games die physix unterstützen aber was ist mit den paar die direkt x10.1 unterstützen oder die paar die jezt AMD als direktx11 angibt.batelforge genial ATI!es gibt ne ganze Menge Games die physix unterstützen das beste Beispiel ist Batman einfach nur genial die Effekte.warum muss man was schlecht reden nur weil man es nicht hat liebe ATI Fans?das selbe ATI bringt jezt dieses multimonitoring das ist doch nur volkommen sinnloser Quatsch da ist 3D Vision von NVIDIA schon deutlich zukunftorientierter.3D ist der Trend der nächsten Jahre!NVIDIA hat ATI Physix angeboten aber sie haben abgelehnt,und bieten ihren Kunden damit deutlich weniger als NVIDIA.wenn bald die neuen NVIDIA Karten kommen werden die alles haben in einer Karte vereint und wieder schneller sein!
 
Es heist immer die paar Games die physix unterstützen aber was ist mit den paar die direkt x10.1 unterstützen oder die paar die jezt AMD als direktx11 angibt.batelforge genial ATI!es gibt ne ganze Menge Games die physix unterstützen das beste Beispiel ist Batman einfach nur genial die Effekte.warum muss man was schlecht reden nur weil man es nicht hat liebe ATI Fans?das selbe ATI bringt jezt dieses multimonitoring das ist doch nur volkommen sinnloser Quatsch da ist 3D Vision von NVIDIA schon deutlich zukunftorientierter.3D ist der Trend der nächsten Jahre!NVIDIA hat ATI Physix angeboten aber sie haben abgelehnt,und bieten ihren Kunden damit deutlich weniger als NVIDIA.wenn bald die neuen NVIDIA Karten kommen werden die alles haben in einer Karte vereint und wieder schneller sein!


Bevor du hier so einen Stuss verzapfst solltest du lieber etwas nachdenken.
Es wird sich hier über PhysX aufgeregt da Nvidia only, AMD/ATI wollen mit "Open Physic" das ganze für die eigenen Produkte und die Konkurrenz Produkte anbieten, was ich für Sinnvoller empfinde.
Nur in Games ist PhysX zur Zeit nur ein Gimmik, daran wird sich nichts ändern es sei den Nvidia überdenkt ihre Strategie.

Das Multimonitoring auch bekannt als "Eyefinity" ist doch eine Klasse Idee. Die Game Hersteller müssen dafür nicht mal was extra Programmieren da alles der Treiber macht.

Aber auch du wirst es noch merken, wenn du deine "Scheuklappen" ablegst.
 
und 3d Vision ist Mist was,ja aber das ach so geniale ati eyefinity ist ja sooooo tol.oh man wenn das schon wieder lese von den ati fanboys.warum sollte nvidia ihre Strategie überlegen?sie bieten ein tollen Bonus an und jeder der es nutzen will kann es auch nutzen, wenn er sich ne nvidia Karte kauft,wo ist da das Problem.in den meisten gamer PC sind nvidia Karten verbaut also ist es nur legitim von nvidia so zu handeln.ja ati kann das auch klar aber wo sind die games?bei 3d Vision macht es bekanntlich auch der Treiber und davon habe ich deutlich mehr als von 3 oder 24 3d Monitore nebeneinander und übereinander zu stellen.lol!
 
Es heist immer die paar Games die physix unterstützen aber was ist mit den paar die direkt x10.1 unterstützen oder die paar die jezt AMD als direktx11 angibt.batelforge genial ATI!es gibt ne ganze Menge Games die physix unterstützen das beste Beispiel ist Batman einfach nur genial die Effekte.warum muss man was schlecht reden nur weil man es nicht hat liebe ATI Fans?das selbe ATI bringt jezt dieses multimonitoring das ist doch nur volkommen sinnloser Quatsch da ist 3D Vision von NVIDIA schon deutlich zukunftorientierter.3D ist der Trend der nächsten Jahre!NVIDIA hat ATI Physix angeboten aber sie haben abgelehnt,und bieten ihren Kunden damit deutlich weniger als NVIDIA.wenn bald die neuen NVIDIA Karten kommen werden die alles haben in einer Karte vereint und wieder schneller sein!

Zum Thema DX11. Man erinnere sich an den DX10 release. Da haben alle NV für in den Himmel gelobt, dass sie doch eine so große Neuerung auf der Karte haben. Jetzt kommst du und willst das ATi mit DX11 vergönnen? Ein wenig sinnlos oder etwa nicht?
Sicherlich gibts eine Menge Games die PhysX unterstützen, doch wissen die meisten Anwender gar nichts davon. Die wenigsten wird das auch interessieren. Sie wollen spielen, hauptsache das Game läuft und sieht gut aus. Auf Physik legt der Causualgamer nicht soo viel Wert, dafür haben auch bisher konventionelle Physikengines gereicht.
Ohh und bevor du etwas sagst. Ja ich habe eine NVidia, mehrere sogar, alle PhysX fähig. Aber gebraucht habe ich es bis jetzt noch nie. Also rede nicht von "warum muss man was schlecht reden nur weil man es nicht hat liebe ATI Fans?"

Warum sollte Multimonitoring quatsch sein?
Es hat sich oft gezeigt, dass Grakas ein Manko haben => 2 Ausgänge.
Dieses Problem hat man nun gelöst und macht es dem Kunden langsam aber sicher besser zugänglich, als es z.B. Matrox getan hat.
Soll doch 3D der Trend sein, wer sagt das ATi nicht auch eine Technologie entwickelt?
In die Zukunft schauen kann keiner von uns. Das meiste was abgelassen wird sind heitere Spekulationen. Nicht mehr, nicht weniger.

Deutlich weniger bietet ATi nicht. Wenn du es abwägst ist es mindestens (!) ausgeglichen. NV hat 3D-Vision und PhysX, ATi hat Eyefinity und DX11 mit passendem Untersatz.

und 3d Vision ist Mist was,ja aber das ach so geniale ati eyefinity ist ja sooooo tol.oh man wenn das schon wieder lese von den ati fanboys.warum sollte nvidia ihre Strategie überlegen?sie bieten ein tollen Bonus an und jeder der es nutzen will kann es auch nutzen, wenn er sich ne nvidia Karte kauft,wo ist da das Problem.in den meisten gamer PC sind nvidia Karten verbaut also ist es nur legitim von nvidia so zu handeln.ja ati kann das auch klar aber wo sind die games?bei 3d Vision macht es bekanntlich auch der Treiber und davon habe ich deutlich mehr als von 3 oder 24 3d Monitore nebeneinander und übereinander zu stellen.lol!

Halte ich mal für ein Gerücht ;)
Ich finde es generell Schwachsinn, das hier 2 Technologien (3D-Vision/Eyefinity) verglichen werden. Jede von beiden hat nen Vorteil.
Für Multimonitoring halt ATi und für Leute die es unbedingt brauchen eben 3D.
PhysX hatte sich schon mit Ageia nicht wirklich durchsetzen können. NV hat versucht es mit Hilfe seiner GPU-Berechnung schmackhafter zu machen. Wird auch sicherlich gelungen sein, aber ist der Markt für PhysX doch imho noch zu klein. Deshalb bleibt abzuwarten, was nun folgt. Wenn es kommen sollte das es eine gemeinsame Physikplattform gibt, die Herstellerunabhängig funktioniert, sehe ich für PhysX kein Land mehr, weil Spieleentwickler mit einer globalen Plattform einfach mehr Markt abdecken können.
 
Zuletzt bearbeitet:
Ich finde es generell Schwachsinn, das hier 2 Technologien (3D-Vision/Eyefinity) verglichen werden.
Zumal ja die eine Technologie nicht im Ansatz was mit der anderen zu tun hat.
Aber der Turbofucker gehört, wie auch schon in anderen Threads gezeigt, zu den schwierigen Kandidaten.
Dort hat er auch gerne Äpfel mit Birnen verglichen.
 
und 3d Vision ist Mist was,ja aber das ach so geniale ati eyefinity ist ja sooooo tol.oh man wenn das schon wieder lese von den ati fanboys.warum sollte nvidia ihre Strategie überlegen?sie bieten ein tollen Bonus an und jeder der es nutzen will kann es auch nutzen, wenn er sich ne nvidia Karte kauft,wo ist da das Problem.in den meisten gamer PC sind nvidia Karten verbaut also ist es nur legitim von nvidia so zu handeln.ja ati kann das auch klar aber wo sind die games?bei 3d Vision macht es bekanntlich auch der Treiber und davon habe ich deutlich mehr als von 3 oder 24 3d Monitore nebeneinander und übereinander zu stellen.lol!


Wo liegt eigentlich dein Problem?
Das ist eich ein ATI Fanboy halte ich für ein Gerücht, da ich aktuell eine GTXD 295 im Rechner habe.

3D Vision braucht erstens eine 3D Brille was sich zu GeForce 2 Zeiten schon nicht durchsetzen konnte und zweitens einen Speziellen Monitor.
Außerdem ist es was ganz anderes als das Eyefinity von ATI. Das macht aus z.B. 3 TFT einen großen.
Ist zwar auch nichts neues, da es das von Matrox schon lange gibt aber jetzt braucht man dafür das Teil von Matrox nicht mehr.

Und wie schon einmal gesagt nimm die Scheuklappen weg und denk einfach mal darüber nach bevor du so viel ****** schreibst.
 
Physix ist toll, das ohne Frage. Ageia war der Zeit eigentlich vorraus, allerdings haben sie evtl auch erst den richtigen Anstoss gegeben.
Nein, nicht wirklich. PhysX ist erstmal eine Engine für physikalische Berechnungen, also eine Sammlung diverser Algorithmen und Routinen. Und das gab es schon lange vorher. Die bekannteste Engine ist hier sicherlich Havok, die selbst heutzutage vom Funktionsumfang her PhysX immer noch übertrifft.
Ageia hat lediglich versucht, diese Funktionalität in Hardware umzusetzen. Und das ist bekanntlich in die Hose gegangen. Was aber auch abzusehen war.

Es heist immer die paar Games die physix unterstützen aber was ist mit den paar die direkt x10.1 unterstützen oder die paar die jezt AMD als direktx11 angibt.
Das ist überhaupt nicht vergleichbar. DirectX ist zu einem Industriestandard geworden, wenn auch ein proprietärer. Jeder, der auf die Windows Plattform setzt, kann bei der Spezifizierung eigene Vorschläge einbringen und daran mitarbeiten. Diese Spezifikationen sind letztendlich offen und jeder kann kompatible Hardware dafür bauen. Ich bin mir nicht mal sicher, ob Microsoft dafür Lizenzgebühren verlangt.
PhysX ist weder ein Industriestandard, noch ist die Spezifikation offen, noch wird momentan andere Hardware als nVidias unterstützt.
Man kann die Bedeutung von Technologien nicht immer anhand der Verbreitung beurteilen. Da gehört weit mehr dazu. ;)

das selbe ATI bringt jezt dieses multimonitoring das ist doch nur volkommen sinnloser Quatsch da ist 3D Vision von NVIDIA schon deutlich zukunftorientierter.
Anderen vorwerfen, sie würden etwas schlecht reden, und dann ein solcher Fauxpas. :rolleyes:
3D Vision ist momentan nicht mehr als eine marktuntaugliche Spielerei. Mag zwar für den einen oder anderen ganz nett sein, aber nicht wirklich von Bedeutung. Multimonitoring hat hingegen schon seit langer eine Bedeutung und wird gerade in professionellen Umgebungen eingesetzt.
Nur weil du mit Eyefinity nichts anfangen kann, brauchst du nicht zu denken, du seist repräsentativ. ;) Wobei, wie schon gesagt wurde, ein Vergleich sowieso sinnfrei ist. Keinem Hersteller ist verboten, auf beides zu setzen und dafür nützliche Lösungen anzubieten.
 
mr.dude schrieb:
Ageia hat lediglich versucht, diese Funktionalität in Hardware umzusetzen. Und das ist bekanntlich in die Hose gegangen. Was aber auch abzusehen war.

Darauf wollte ich hinaus. Und das es in die Hose gegangen ist liegt meiner Meinung nach daran das sie eben der Zeit vorraus waren.
 
übrigends, physx ist mit 22% das führende physik engine.

3D Vision ist momentan nicht mehr als eine marktuntaugliche Spielerei. Mag zwar für den einen oder anderen ganz nett sein, aber nicht wirklich von Bedeutung.
wenn es nicht so teuer wäre hätte es jeder, denn 99% der leute die es schon ausprobiert haben finden es sehr gut. ;)
 
Zuletzt bearbeitet:
Darauf wollte ich hinaus. Und das es in die Hose gegangen ist liegt meiner Meinung nach daran das sie eben der Zeit vorraus waren.
Eher weniger. Das lag vielmehr an der Lösung ansich, also einer separaten PPU Karte. So was hat schon in der Vergangenheit nicht funktioniert, siehe den 2D/3D Lösungen Mitte bis Ende der 90er, und hätte auch nicht funktioniert, wenn Ageia noch 10 Jahre gewartet hätte.

übrigends, physx ist mit 22% das führende physik engine.
Vielleicht bei nicht repräsentativen Statistiken.

wenn es nicht so teuer wäre hätte es jeder, denn 99% der leute die es schon ausprobiert haben finden es sehr gut.
Unwahrscheinlich. Wie schon zuvor gesagt wurde, du brauchst einen speziellen Monitor und dazu noch eine spezielle 3D Brille. Und nicht zuletzt natürlich auch noch eine nVidia GPU samt Treiber und Support. Das ist als Gesamtpaket einfach vollkommen massenuntauglich und eher etwas für Enthusiasten.
 
mr.dude schrieb:
Unwahrscheinlich. Wie schon zuvor gesagt wurde, du brauchst einen speziellen Monitor und dazu noch eine spezielle 3D Brille. Und nicht zuletzt natürlich auch noch eine nVidia GPU samt Treiber und Support. Das ist als Gesamtpaket einfach vollkommen massenuntauglich und eher etwas für Enthusiasten.

Der Weg wird wohl irgendwann zu richtigem 3D führen, ich denke aber auch das sich das über Monitore durchsetzen wird wenn das ganze ausgereifter ist. Die noch seltenen 120 Hz Monitore werden aber auch irgendwann mal Standard werden, hoffe ich, 60Hz sind nicht wirklich das Wahre.

mr.dude schrieb:
Eher weniger. Das lag vielmehr an der Lösung ansich, also einer separaten PPU Karte. So was hat schon in der Vergangenheit nicht funktioniert, siehe den 2D/3D Lösungen Mitte bis Ende der 90er, und hätte auch nicht funktioniert, wenn Ageia noch 10 Jahre gewartet hätte.

Spielst du damit auf die Voodoo Karten an? Die haben sich aber eigentlich wirklich gut verkauft. Irgendwann wird die Physik in Spielen trotzdem den größten Rechenaufwand fordern, von daher halte ich seperate PPUs in Zukunft nicht für unmöglich.
 
Spielst du damit auf die Voodoo Karten an?
Zum Bleistift. Es gab aber auch noch andere Hersteller, soweit ich mich erinnern kann. Und es ist zwar richtig, dass sich diese 3D Zusatzkarten ganz gut verkauft haben, nicht zuletzt, weil sie Kombikarten mit 2D und 3D Funktionalität teilweise überlegen waren, aber es hat sich nun mal nicht durchgesetzt. 2 Karten für praktisch das gleiche Einsatzgebiet ist eben 1 Karte zu viel. Und das gleiche Schicksal hat auch Ageia ereilt. Und da GPGPU sowieso nicht mehr aufzuhalten ist, hat sich eine separate PPU damit auch erledigt. Ich sehe maximal die Möglichkeit, dass man in Zukunft einen separaten PPU Chip mit auf die GPU packt. Aber selbst dafür sind die Chancen eher gering. Man wird dann wohl eher den GPU Befehlssatz für Physik Berechnungen erweitern.
 
Zuletzt bearbeitet:
Nur in Games ist PhysX zur Zeit nur ein Gimmik, daran wird sich nichts ändern es sei den Nvidia überdenkt ihre Strategie.

Moment, nicht verwechseln... PhysX als Physikengine ist in recht vielen Games verbaut... Aber eben die nutzen keine GPU als Rechenwerk, davon gibts nur ne Handvoll... Und der Effektzuwachs ansich ist auch noch nicht sooo das Wahre wie ich finde. Das geht klar noch besser.

Neuestes Beispiel ist Risen, da bedient man sich auch an der PhysX Engine, aber eben nur auf CPU Basis.

Und da GPGPU sowieso nicht mehr aufzuhalten ist, hat sich eine separate PPU damit auch erledigt. Ich sehe maximal die Möglichkeit, dass man in Zukunft einen separaten PPU Chip mit auf die GPU packt. Aber selbst dafür sind die Chancen eher gering. Man wird dann wohl eher den GPU Befehlssatz für Physik Berechnungen erweitern.

Problem könnte aber noch sein, das eine GPU als Unterbau nie die selbe Rechenleistung wie ein dedizierter Chip aufweisen wird.
Als Beispiel die Ageia Karte, Leistungsvergleiche in Mirros Edge zeigen, das die Karte in etwa auf das selbe Rechenniveau kommt wie eine 9600GT als PhysX GPU.

Schaut man sich nur mal den Stromverbrauch an, kommt die Ageia Karte mit um die 20W bei ich glaub noch 130nm Fertigung weit besser weg als eine deutlich kleinere/neuere GPU, die dafür missbraucht wird ;)
 
Ach da setzt man sich einfach eine 275 GTX als PhysX Karte in den Rechner, wie ich. :xmas:

Funktioniert hervorragend, ist aber auch nur per Zufall entstanden und aus Kostensicht nicht gerade optimal.
 
Wenn Intel auf die Idee gekommen wäre ne PPU anzubieten sehe die Geschichte wohl anders aus. Ageia war als Unternehmen zu klein um ein solchen Risikogeschäft unbeschadet zu überstehen.
 
Der Service seitens NV ist enfach besser, Treiberbugs wurden bisher immer schneller gelöst als bei ATI.

Und NV hat grosse Teile in die Spieleindustrie gesteckt, hätte AMD/ATI den Knall gehört, müsste sie sich nicht beschweren, dass bei vielen Spielen dieses NV Logo gezeigt wird.

AMD = Weniger Einsatz um am Ball zu bleiben, aber bessere HW Preise. gute quali
NV= Hoher Einsatz, hohe Preise, hohe Quali.

Nun ist leider die Quali zu hoch,
sodass NV, (ich hoffe ich bin aktuell) aus dem Segment erstmal einen Rückzieher macht.
Dann kann ATI von mir aus Bucks in die Games bauen, um es NV heimzuzahlen.
Blöd nur wenn man selber schuld am rückstand ist/war, und diesen als mächtniss der bösen Konkurrenz beschuldigt.
Sowas ist Paranoid :fresse:
 
Zuletzt bearbeitet:
Ist ja auch egal...
Fakt ist, das es dem Endkunden quasi nix nutzt, wenn es wunderschöne Sachen gibt, für die man extra dedizierte Hardware brauch...

Das fängt bei PPUs an und hört bei dem 3D Zeug von NV auf... Der Markt für sowas ist einfach zu klein. Der Endkunde brauch Sachen, die recht Herstellerunabhängig laufen, eben, weil die Entwicklungsteams dann derartiges eher implementieren und weil quasi alle davon nutzen haben.

Der Service seitens NV ist enfach besser, Treiberbugs wurden bisher immer schneller gelöst als bei ATI.

Und NV hat grosse Teile in die Spieleindustrie gesteckt, hätte AMD/ATI den Knall gehört, müsste sie sich nicht beschweren, dass bei vielen Spielen dieses NV Logo gezeigt wird.

AMD = Weniger Einsatz um am Ball zu bleiben, aber bessere HW Preise. gute quali
NV= Hoher Einsatz, hohe Preise, hohe Quali.

Nun ist leider die Quali zu hoch, sodass NV, (ich hoffe ich bin aktuell) aus dem Segment erstmal einen Rückzieher macht. Dann kann ATI von mir aus Bucks in die Games bauen, um es NV heimzuzahlen.
Blöd nur wenn man selber schuld am rückstand ist/war, und diesen als mächtniss der bösen Konkurrenz beschuldigt. Sowas ist Paranoid :fresse:

In Punkto Treiber unterschieden sich beide Null komma gar nicht...
Fakt ist, das es bei AMD monatlich neue Treiber gibt (die idR Bugfixes und sonstige Verbesserungen erhalten)
Bei NV gibts nur in unregelmäßigen Abständen neue Treiber, dafür aber sehr viele Beta und Vorabversionen...

Welches der beiden Versionen nun besser ist, muss jeder selbst entscheiden...


Zum Thema Logo in Spielen... Das Logo ansich sagt erstmal überhaupt nix aus. Es gibt durchaus auch Games, in dehnen AMD Karten schneller sind als NV Karten und die dabei auch das NV Logo tragen...

Zum Thema Qualität, das ist auch ein zweischneidiges Schwert bei dem man beide Seiten betrachten muss...
Ich sag nur Spulenfiepen, HD Bildqualität und Multimonitoringsupport bei NV.
Gleichsam AF Flimmern, teils der CF Support bei AMD...
 
Zuletzt bearbeitet:
Darauf wollte ich hinaus. Und das es in die Hose gegangen ist liegt meiner Meinung nach daran das sie eben der Zeit vorraus waren.
Daß Ageia Pleite gegangen ist, liegt daran, daß ihr PhysX Schrott ist. Es bietet keinerlei reale Vorteile in Spielen, nur ein bißchen Augenwischerei. Dafür wollte natürlich niemand bei auch nur halbwegs gesundem Menschenverstand Geld ausgeben, und daher sind sie dann Pleite gegangen :shot:
 
Problem könnte aber noch sein, das eine GPU als Unterbau nie die selbe Rechenleistung wie ein dedizierter Chip aufweisen wird.
Als Beispiel die Ageia Karte, Leistungsvergleiche in Mirros Edge zeigen, das die Karte in etwa auf das selbe Rechenniveau kommt wie eine 9600GT als PhysX GPU.
Nun ja, das sollte man nicht vergleichen. Der G80 wurde ja nie dafür konzipiert, Physik Berechnungen effizient zu beschleunigen. Wie gesagt, wenn man entsprechende Funktionalität direkt dem Befehlssatz hinzufügt, sähe das schon ganz anders aus. Das kann ein dedizierter Chip letztendlich auch nicht besser. Im Gegenteil, dort kämen womöglich redundante Schaltungen hinzu, die im Endeffekt mehr Leistung benötigen.

Der Service seitens NV ist enfach besser, Treiberbugs wurden bisher immer schneller gelöst als bei ATI.
Kann ich nicht wirklich bestätigen. Ich habe mich mit dem einen oder anderen Bug schon ein halbes Jahr und länger rumgeärgert, bis sie endlich mal gefixt wurden. So toll sind nVidias Treiber dann auch nicht, wie immer mal wieder behauptet wird. Wobei ich die ATI Treiber nicht kenne und daher Vergleiche schwer fallen.

AMD = Weniger Einsatz um am Ball zu bleiben, aber bessere HW Preise. gute quali
NV= Hoher Einsatz, hohe Preise, hohe Quali.
Was den Einsatz betrifft, das kann niemand von uns beurteilen. Aber ansonsten ist das ziemlich subjektiv. Ich würde eher sagen, dass nVidia hohe Preise und mittelmässige Hardware hat, während AMD attraktivere Preise und bessere Hardware hat. ;)
 
Zuletzt bearbeitet:
Was den Einsatz betrifft, das kann niemand von uns beurteilen. Aber ansonsten ist das ziemlich subjektiv. Ich würde eher sagen, dass nVidia hohe Preise und mittelmässige Hardware hat, während AMD attraktivere Preise und bessere Hardware hat. ;)
wat? attraktive preise + keine features + schlechte bildqualität trifft es eher.

für die bildfehler ist ein neuer treiber bei nvidia erschienen, hat ATI auch schon einen dafür draußen?
 
wat? attraktive preise + keine features + schlechte bildqualität trifft es eher.

für die bildfehler ist ein neuer treiber bei nvidia erschienen, hat ATI auch schon einen dafür draußen?

was verstehst du unter keine features bitte?
ati ist nicht weniger innovativ wie nv, der schwerpunkt liegt nur anders ;)
 
Wenn bei NVIDIA mal irgendwas im einem Game nicht richtig läuft gibt es einen Tag später einen beta und die Sache ist erledigt,bei ATI kannst einen Monat warten wenn du Glück hast.neustes beispiel anno.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh