Erneut Treibercheating von Nvidia bei FarCry!!!

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
es gibt eben 2 möglichkeiten mehr speed rauszuholen einmal über den optischen weg oder nicht optischen als Beispiel bei aquamark 3 fehlen bei einem treiber manche schatten , beim anderen nicht :d
 
Ach is doch egal ob das NVidia macht oder nicht. Mit dem Cheating holen sie ein paar Punkte auf, aber ATIs Vorsprung ist so groß, das kann Nvidia nie ein holen.
 
Börni schrieb:
Ach is doch egal ob das NVidia macht oder nicht. Mit dem Cheating holen sie ein paar Punkte auf, aber ATIs Vorsprung ist so groß, das kann Nvidia nie ein holen.


MUAHAHAHAHA ...

zeig mir mal diesen uneinholbaren vorsprung ;)
 
ein zwei cheats mehr und weg isser der vorsprung nVidia an die macht :lol:
 
ab und zu habe ich das gefühl als wenn es so gehört und strategisch miteinader vereinbart ist das mal der oder der an der macht steht damit die überleben können.

nvidia kann sich nur eine flaute über 2 jahre leisten mit dem was die angespart haben und ati auch.


ich hatte vorher eine gforce und jetzt ati, und jede hat seine vorteile.
ati hat insgesamt ein besseres 2D bild und besseren tv ausgang.

und nvidia ist unkomplizierter mit den treibern und handhabung.



mfg
werner
 
nView ist auch eine sehr gute sache :d
 
Anarchy schrieb:
Wird die Grafikquali durch die "optimierungen" schlechter ?

Wenn nen is et mir egal ...

PS : Und glaubst du echt ATI cheatet nicht ? Ich sag nur : Bilinear Filter auf den unteren Texturlayern (1-7) ...

http://www.3dcenter.de/artikel/r420_benchmarks/index7.php

Das ist das EINZIGE was ATI seid dem R3xx konstant macht. Von mehr habe ich nix gehört. Und irgendwo groß in den News stand es auch nicht. Bei NVIDIA hört man alle Nase lang was von Treibercheating. :rolleyes:
 
Vielleicht sollt man da bei ATi bissi genauer checken was da abgeht ... tut aba wohl keiner ...
 
Pff, und nun? Sollen sie doch "cheaten", das ist mir so was von egal, solange sie vernünftige GraKas erzeugen, die aktuellen und zukünftigen Anforderungen gerecht werden und konkurrenzfähig zu den Produkten anderer Hersteller sind. Überhaupt, warum sollte man sich über ein paar ercheatete Benchmark-Punkte aufregen? Das ist bloß ein Benchmark, für mich zählt aber die Leistung in Spielen, in echten, nützlichen Anwendungen. Und warum regen sich eigentlich die ATi-Leute darüber auf? Gerade denen kann es doch egal sein, was ein Hersteller, von dem sie nichts halten und dessen Produkte sie eben nicht erwerben, anstellt! So ein "reges Interesse" an den Aktionen vermeintlich uninteressanter Produzenten steht doch in Widerspruch zur maßlosen Beführwortung eines jeweils anderen Herstellers.
 
Anarchy schrieb:
Vielleicht sollt man da bei ATi bissi genauer checken was da abgeht ... tut aba wohl keiner ...

Genau, sind ja alle nur darauf aus Nvidia eins auszuwischen (und alle decken ATI)

muhhaaaa, selten so gelacht
 
resourZ schrieb:
Überhaupt, warum sollte man sich über ein paar ercheatete Benchmark-Punkte aufregen? Das ist bloß ein Benchmark, für mich zählt aber die Leistung in Spielen, in echten, nützlichen Anwendungen.
Aber das ist ja gerade das A&O die meisten Graka Käufer sehen eben zuerst die Benches die in den Fachzeitschriften veröffentlicht werden,und da will jeder Hersteller ob Nvidia oder ATI vorne sein.Die tatsächliche Leistung in Spielen steht hintendran,hier im Forum geht es den meisten doch auch nur um die Punkte die sie in den Benchmarks erreichen.Und ihr seid doch die Käufer dieser Produkte also versucht jeder Hersteller sein Produkt als das beste darzustellen.
Gruß
Nanaspappi
 
Jeder Hersteller "optimiert" oder cheatet. Nur weil NVIDIA einmal groß auf die Klappe geflogen ist, schaut man eben genauer hin. ATI bescheißt doch ebenso - nur machen die es etwas geschickter und nicht so auffällig. :d

Ich hatte bis jetzt sowohl NVIDIA als auch ATI und war mit beiden zufrieden. Ich schätze auch mal, dass erstere in den nächsten Jahren wieder aus ihrem Loch kommen und Oberhand gewinnen und dann werde alle, die jetzt über NVIDIA herziehen eine Karte von der "verschriehenen" Chipschmiede in ihrem Rechner haben. Dann wird ATI wieder versuchen durch "Optimierung" an die Spitze zu kommen. Machen wir uns doch nichts vor: Es gibt kaum jemanden der immer zu "seinem" Hersteller hält. Man wechselt immer die Fronten. Mal ist eben der Eine mal der Andere vorne. Und das ist auch gut so, denn das belebt den Markt. Im Moment ist eben ATI vorne - was soll's?
 
Also solange es nicht an der Bildqualität nagt, finde ich solche Aktionen der Optimierung doch echt gut für den Endverbraucher. Ich persönlich lege sehr viel Wert auf eine gute Texturdarstellung. Und ich bin mit meiner FX5900 in diesem Punkt echt zufrieden. Aber auch im 2D-Modus kann ich mich nicht beklagen. Aber ich frage mich sowieso, wie man im 2D Modus, denn Unterschiede heutzutage feststellen kann? Also eine 9xxx stellt ja auch kein schlechteres/besseres Bild dar(oder guck ich nicht richtig?). Der Unterschied müsste also doch sehr gering sein, oder?
 
@nanaspappi
Stimmt, das ist natürlich das "Urproblem", wodurch die Hersteller überhaupt erst zum Benchmark-Cheaten gelangen. Wenn die Kunden doch bloß nicht immer auf dieses Synthetische schielen, sondern ihre Entscheidung nach der Leistung in realen Anwendungen richten würden. Und schließlich gehören passende Spiele ja nicht umsonst in einen guten Test-Parcour - hier kann man die Leistung praxisorientierter ablesen.
... hier im Forum geht es den meisten doch auch nur um die Punkte die sie in den Benchmarks erreichen.
Genau, und das ist doch echt schwachsinnig. Da kauft man sich ne Grafikkarte, um möglichst hohe Bench-Ergebnisse zu bekommen und freut sich mehr über einen neuen Benchmark als über ein neues Spiel. :wall: Ich will die GraKa-Produzenten überhaupt nicht entschuldigen, aber trotzdem ist es ja kein Wunder, dass sie sich in so einer Situation diese einfache Manipulationsmöglichkeit nicht entgehen lassen, wenn so viele Konsumenten an der wahren Leistung gar nicht interessiert sind und so einfach geblendet werden können.
 
naja, punkte auf oder ab, es muss doch nen grund haben, wieso die punktzahl steigt, ich glaub nicht, dass die treiber so programmiert sind, dass sie den speicherbereich mit der resultierenden punktzahl bei 3DMark2003 modifizieren oder so.... von irgendwo her muss der "boost" ja kommen, und das sind eben mit geringerer präzision berechnete effekte, bzw. gar nicht berechnete effekte - das ist schon eher störend, sowohl in nem benchmark als auch in einem spiel (in letzterem erst recht).

irgendwie ist es für mich traurig, dass sich hersteller immer wieder gezwungen sehen, zu solchen mitteln zu greifen - aber das ist eben knallharte marktwirtschaft, von den fanboys alleine können sie keine großen umsätze machen, dazu muss man auch ein "paar" user davon überzeugen, ne gute karte abgeliefert zu haben... wie auch immer :rolleyes:
 
Ach, A.T.I steht doch für: Aussichtslose Technik International !!
 
peti_1983 schrieb:
Ach, A.T.I steht doch für: Aussichtslose Technik International !!


eine ziemlich beweislose aussage meinste nicht!? und das sage ich als nVidia freak :fresse:
 
(Aussichtslose Technik ... anderes Wort für International: Weltweit!) ;)
 
So, ich hab mir jetzt noch einpaar Gedanken gemacht und meine Wertlose Zeit noch wertloser gemacht...

N.V.I.D.I.A
Nur Volltrottel Investieren Dummerweise In Ati
 
auch von chip.de


Nvidia: Far Cry und Extreme Edition der GeForce 6
Der Hersteller Nvidia bestreitet, dass der Grafikkarten-Treiber beim DirectX-9-Spiel "Far Cry" Optimierungen vornimmt. Gegenüber CHIP erklärte Nvidia-Sprecher Luciano Alibrandi: "Der Grund für den Leistungsabfall bei Far Cry - durch das Umbenennen der Startdatei "FarCry.EXE" - resultiert daraus, dass in diesem Fall das Spiel in einem nicht optimierten Modus läuft."

Nvidias Treiber haben jedoch einen Code für "Far Cry" in den Treibern integriert, der auf die GeForce-6800-Architektur optimiert ist. Er setzt jedoch die so genannte Profil-Einstellung voraus.

Benutzt man diese Profil-Einstellungen ordnungsgemäß, erhöht sich die Leistung deutlich, wobei die Bildqualität auf gleich hohem Niveau bleibt, erklärte der Sprecher. Alibrandi fügte hinzu: "Nvidia wird innerhalb der nächsten zwei Wochen einen neuen Treiber veröffentlichen, der diesen kleinen Bug ausmerzt."

Extreme Edition kein Verkaufsprodukt
Außerdem entschuldigte sich der Sprecher für die Verwirrungen, die durch das höher getaktete GeForce-6800-Ultra-Modell mit dem Namenszusatz "Extreme Edition" entstand. "Dabei", so Alibrandi, "handelt es sich nicht um ein eigenständiges Produkt".

Vielmehr wollte man zeigen, welche Chip-Taktfrequenzen bei der GeForce-6800-Architkektur möglich seien. Grafikkarten-Herstellern wie etwa Gainward oder XFX steht es aber frei, den GeForce-6800-Ultra-Prozessor mit einem höheren Chip-Takt als die aktuell spezifizierten 400 MHz zu betreiben. (db)

Bildergalerie: Benchmarks der neuen 3D-Boliden


Far Cry: Nvidia bestreitet Benchmark-Schummelei

3D-Chaos: Benchmark-****** bei "Far Cry"?

Radeon X800 XT: ATIs 3D-Rakete im Test

CHIP Online meint:
Zusammen mit Nvidia hat CHIP die eine Bildqualität beim Spiel "Far Cry" ausführlich analysiert und konnte keine Verschlechterung bei Verwendung der Profil-Einstellungen nachweisen. In diesem Fall, und vor allem unter Berücksichtigung eines schnell versprochenen Treiber-Fixes, halten wir den Daumen für Nvidias GeForce 6800 Ultra wieder nach oben.

Eine kleine Watschen gibt's allerdings für die Tatsache, dass man kurz vor dem Start der Radeon X800 XT mit der "Geister-Karte" GeForce 6800 Ultra "Extreme Edition" gegen schoss. Unterm Strich ist diese höher getaktete Ultra-Karte ein Bluff und wird wohl nur von wenigen Herstellern angeboten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh