Nvidia schummelt in der Bildquali und jetzt auch in der Geschwindigkeit! *Update*

Jodeldiplom schrieb:
Ich werd meine 6800GT direkt wieder verkaufen. Die Bestellung für die X850XT ist bereits raus. Den Aufpreis zahl ich gerne, denn dieses grauenhafte Bild werd ich mir nicht länger antun. Zumal man bei 220€ (immerhin ~ 450 DM) wohl ein glasklares Bild erwarten kann.


Ist echt mal unglaublich wie weit sich dieses Gerücht schon verbreitet hat. War es nicht ATI die bei ihrer X800err Serie ne versteckte Optimierung eingebaut haben??

Irgendwie fangen seid dem Erscheinen des G70 alle zu spinnen an :( Warum beschweren sich die meisten nicht über die achso schlechte BQ des NV40??

Vergleiche mal CS:S mit ner 6800er und ner X800 und sag mir was besser aussieht :maul:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nochmal: Ich kann nicht beurteilen inwieweit die BQ einer X800 besser ist, als die der nVidia. Mag sein, dass ich von der X850XT genauso enttäuscht bin, wie von der 6800GT.

Ich weiss nur, dass die BQ der nVidia gegenüber meiner 9500 Pro schlichtweg furchterregend ist. Dafür brauch ich keinen Hype oder Panik-Threads, da reichen selbst die Augen einer 80jährigen.
 
thade2001 schrieb:
Ist echt mal unglaublich wie weit sich dieses Gerücht schon verbreitet hat. War es nicht ATI die bei ihrer X800err Serie ne versteckte Optimierung eingebaut haben??

Irgendwie fangen seid dem Erscheinen des G70 alle zu spinnen an :( Warum beschweren sich die meisten nicht über die achso schlechte BQ des NV40??

Vergleiche mal CS:S mit ner 6800er und ner X800 und sag mir was besser aussieht :maul:

bin auch mit bq der 6800gt zufrieden. hab nicht mehr oder weniger flimmern als mit meiner 9800pro. nur was die mehrheiut der user vom g70 berichten halte ich doch schon für "erschreckend"
 
Jodeldiplom schrieb:
Ich hab z.Zt. den direkten Vergleich, da ich gerade von einer 9500 Pro auf eine 6800GT umgestiegen bin. Die Bildqualität (3D) der nVidia ist Vergleich zu meiner alten ATi zum Fussnägelaufrollen.

Selbst auf High Quality, voll aufgetretem AA und AF, Clamp und was die Treiberwelt von nVidia sonst noch alles kennt, kommt die 6800GT nicht an die Stabilität des Bildes der ATi heran. Irgendwo flimmert, flackert, grieselt oder zuckt bei der 6800GT immer etwas. Wie die 6800GT im Vergleich zu den neuen ATIs abschneidet, kann ich natürlich nicht beurteilen. Den Vergleich mit der 9500 Pro verliert nVidia hingegen haushoch.

Wer es partout nicht glauben will, dass die BQ des nv40 gesunken ist, der informiere sich bitte vorher über die technischen Hintergründe.

Ich werd meine 6800GT direkt wieder verkaufen. Die Bestellung für die X850XT ist bereits raus. Den Aufpreis zahl ich gerne, denn dieses grauenhafte Bild werd ich mir nicht länger antun. Zumal man für 220€ (immerhin ~ 450 DM) wohl ein glasklares Bild erwarten kann.
Mach erstmal dein System sauber, bevor du Vergleiche startest. Bei mir flimmert, grieselt, flackert und zuckt rein GAR NICHTS!
 
jup. ati beseitig jetz schon die probleme mit 90 nm. nvidea hat das bei der nächsten generation noch vor sich.

zur zeit ist nvidea zweifellos vorne, aber wenn ati seine 90nm karte bringt, dreht sich das wieder.

mfg
 
Solange sie sich immer ebenbürdig bleiben ist doch alles in Ordung. Nur darf keiner der beiden überwiegen, sonst haben wir bald nurnoch einen Grakariesen und die Preise schnellen in die Höhe !!
 
Hört sich ja grauenhaft an... aber eine X800 kommt mir sicher nicht in's Haus. Hm :[
 
als ich von der 9800pro zur 6800gt gewechselt bin, habe ich ehrlich gesagt kaum unterschiede in der bildqualität festgestellt...und diese discusion ob nv beim g70 noch mehr schummelt oder nicht würde ich erstmal ruhen lassen bis die ersten gescheiten treiber raus sind...die jetzigen würde ich noch nich als final bezeichnen
 
Etwas verunsichert durch diesen Thread, habe ich den Nachmittag mit ein Paar Einstellungstests - allerdings mit NFSU2 verbracht.
Wenn man AA und AF manuell auf einen beliebigen Wert einstellt, tritt dieses Konturenflimmern auf.
Wenn man "Hohe Qualität" aktiviert, und sowohl Antialiasing als auch Anisotrope Filterung auf "anwendungsgesteuert" stellt, ist die Darstellung fehlerfrei. :bigok:


Edit.: Es wurde der Treiber 77.13 verwendet :wink:
 
hmm, ist jetzt vielleicht kein passender vergleich, aber ich wills mal loswerden:
wenn ich bei meinem KVM-Switch umstelle, merke ich schon im Win selber, dass die ATI (9800PRO) der NV (2-TI :fresse: ) um einiges überlegen ist....
aber wie gesagt, sind auch verschieden Generationen....
 
CK_Wahoo schrieb:
hmm, ist jetzt vielleicht kein passender vergleich, aber ich wills mal loswerden:
wenn ich bei meinem KVM-Switch umstelle, merke ich schon im Win selber, dass die ATI (9800PRO) der NV (2-TI :fresse: ) um einiges überlegen ist....
aber wie gesagt, sind auch verschieden Generationen....

hab eine ähnliche config und merke eigentlich keinen unterschied zwischen der 9600pro und der geekforce2 mx 400
kann aber auch an win xp <-> 2000 liegen

mfg
 
Hi,
hatte auch eine 6800 GT von Galaxy, aber als ich diese umtauschte und die x800 xt pe bekam war die quali im windoof schon beser als bei der nv karte. Ein freund von mir war dabei und meinte auch das der unterschied arg wäre.
Gruß Tu3t
 
chapp schrieb:
hab eine ähnliche config und merke eigentlich keinen unterschied zwischen der 9600pro und der geekforce2 mx 400
kann aber auch an win xp <-> 2000 liegen

mfg

hmm, wäre interessant, obs damit was zu tun hat....
aber von meinen 3 GraKas, die ich nutze, hat die 2-Ti im Vergleich ne schlechtere Quali als die 9800PRO oder 9000Pro
 
Mich würde interessieren wie die 7800GTX in der Quali so ist?? Wurde bis jetzt nichts erähnt? Wer hat denn schon eine ? Wär nett wenn ihr über eure GTX was berichten könntet :)
 
vor ein paar Seite wurde gesagt, dass die Quali net soooo der Burner sei...
 
vor ein paar Seite wurde gesagt, dass die Quali net soooo der Burner sei...

Das sind ja nur vermutungen! Ich will mal Meinungen von den Leuten hören die auch so eine Graka haben! Wie will man den Urteilen wenn man sowas selber nicht gesehen hat?

Ich habe den Thread hier aufgemacht weil ich selber zwischen einer 6800GT und ner X800XT den Qualitätsunterschied mit meinen eigenen Augen gesehen habe! Da helfen auch keine Screen´s...
 
baby2face schrieb:
Das sind ja nur vermutungen! Ich will mal Meinungen von den Leuten hören die auch so eine Graka haben! Wie will man den Urteilen wenn man sowas selber nicht gesehen hat?

Ich habe den Thread hier aufgemacht weil ich selber zwischen einer 6800GT und ner X800XT den Qualitätsunterschied mit meinen eigenen Augen gesehen habe! Da helfen auch keine Screen´s...

hättest du die 3dcenter threads gelesen, wüsstest du, dass es keine vermutungen sind.
 
Ich bin mal so frei, und klau zwei Videos aus dem 3DCenter Forum:


Joint Operations - nVidia 6800

Joint Operations - ATi X800


Achtet mal auf das Ende des Weges, dort ist das Flimmern der nVidia Karte gut zu erkennen, die ATi Karte hingegen bleibt absolut stabil.

Dieses Flimmern ist in der Realität noch deutlich stärker als in auf dem schwach aufgelösten Videos. Aber immerhin sieht man mal, was ich mit "Texturflimmern" meine.
 
Zuletzt bearbeitet:
ich kann mit meiner 7800GTX keine unterschiede feststellen zu meinen vorgängerkarten.

auch ein vergleich mit einer ati hat bei mir keine großen unterschiede gezeigt. wenn man natürlich tiefer in das detail geht und verschiedene AA\AF einstellungen testet, dann sieht man schon was, doch das liegt daran das ATI und NV verschiede modis benutzen.

früher mit den alten karten war das anders, aber heute wo die ramdacs fast gleich sind, gibt es keinen großen unterschied...
 
cl55amg schrieb:
früher mit den alten karten war das anders, aber heute wo die ramdacs fast gleich sind, gibt es keinen großen unterschied...
Was hat denn jetzt bitte ein RAMDAC mit der 3D Bildqualität zu tun? Das Ding ist dazu da, digitale in analoge Informationen umzuwandeln.
 
Zuletzt bearbeitet:
Jodeldiplom schrieb:
Ich bin mal so frei, und klau zwei Videos aus dem 3DCenter Forum:


Joint Operations - nVidia 6800

Joint Operations - ATi X800


Achtet mal auf das Ende des Weges, dort ist das Flimmern der nVidia Karte gut zu erkennen, die ATi Karte hingegen bleibt absolut stabil.

Dieses Flimmern ist in der Realität noch deutlich stärker als in auf dem schwach aufgelösten Videos. Aber immerhin sieht man mal, was ich mit "Texturflimmern" meine.


Ja ist eindeutig zu erkennen. Komisch ist mir vorher noch nie aufgefallen...
 
Jodeldiplom schrieb:
Junge, Junge... was für eine Diskussionsniveau... :bigok:

Was hat denn jetzt bitte ein RAMDAC mit der 3D Bildqualität zu tun? Das Ding ist dazu da, digitale in analoge Informationen umzuwandeln.

junge junge, da hast du dir den falschen ausgesucht.
zum glück hab ich deine provokation noch mit ge-quoted, da hat der edit buttob wohl nicht geholfen;-)
wenn du provizieren willst, dann versuchs bitte in einem forum das
deinem post-nevieau entspricht. empfehlung von mir: www.giga.de

zum ramdac:

http://www.neogrid.de/textsuche.php?Feld=RAMDAC

http://people.mainz.netsurf.de/~hch/oldpages/grafikkarten.html

http://www.fujifilm.de/spass_1260.html?ID=900&buchstabe=r

http://www.tecchannel.de/technologie/komponenten/401558/
 
Zuletzt bearbeitet:
cl55amg schrieb:

Hast du dir deine Links eigentlich mal durchgelesen? Die sagen genau das, was ich dir gesagt habe. Ein RAMDAC ist für die Signalqualität am Analogausgang zuständig. Mit 3D Berechnungen hat das Ding NICHTS, aber gar nichts zu tun.
 
Zuletzt bearbeitet:
warum stellt niemand antialiasing auf 8x ? die 4 frames weniger machen den kohl nicht fett, den unterschied sieht man mehr als deutlich.
 
b1-66-er schrieb:
warum stellt niemand antialiasing auf 8x ? die 4 frames weniger machen den kohl nicht fett, den unterschied sieht man mehr als deutlich.

Wer schön wenns nur 4 Fps wären aber zwischen 4AA und 8S ist der performance unterschied viel grösser!Bei COD habe ich im schnitt 20 FPs weniger.
 
Jodeldiplom schrieb:
Hast du dir deine Links eigentlich mal durchgelesen? Die sagen genau das, was ich dir gesagt habe. Ein RAMDAC ist für die Signalqualität am Analogausgang zuständig. Mit 3D Berechnungen hat das Ding NICHTS, aber gar nichts zu tun.


deine aussage war folgende.
Was hat denn jetzt bitte ein RAMDAC mit der 3D Bildqualität zu tun? Das Ding ist dazu da, digitale in analoge Informationen umzuwandeln.

mein antwort war auf früher bezogen, genause wie mein vorherriger post. früher war die bildqualität, auch bei 3d anwendungen, schlechter durch quaitativ schlechte ramdacs.
dann kamen treiber cheats von diversen herstellern...

demsofolge kann ein schlechter ramdac auch die 3d bildqualität beeinflussen, sofern der analoge ausgag verwendet wird.
 
@CL55AMG

ich verstehe schon was Du meinst aber durch einen sehr schlechten RAMDAC werden ja nicht nur die 3D-Darstellungen schlechter sondern die gesamte Bildqualität nimmt ab.
Daher kann der RAMDAC sich nur indirekt auf das 3D-Bild auswirken.
 
Na, anscheinend hast du dir deine Links ja dochmal durchgelesen :)

Das Thema hier war Texturflimmern, AA, AF & Co. Mit RAMDAC hat das alles nichts zu tun. Was du meinst ist die Signalqualität. Mit der gleichen Logik könnten wir hier auch über Monitore diskutieren, und daraus schliessen, dass es keine Unterschiede mehr zwischen ATI und nVidia gibt.

Aber lassen wirs gut sein. Du hast was durcheinandergeworfen, ich hab zu sehr geprollt... Friede. :wink:
 
für quali vergleiche geht ihr am besten zu HardOCP.com ... falls das noch net gepostet wurd ...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh