Bildqualität ATI vs. Nvidia

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Meist liegt das flimmern aber auch am spiel nicht nur an der hardware!
Beispiel Crysis 2 da flimmerts auch mit der NV karte!
Man muss beides gesehen haben und dann selber beurteilen!
NV hat das bessere AF das weiß jeder nur kann ich mit dem AF flimmer noch leben...
Allerdings hoffe ich natürlich das bei der nächsten generation sowas nicht passiert weil bei max quali darf das nicht sein!
 
Bei mir flimmert nichts mit Nvidia. Wo genau solls denn flimmern damit ich weiss wo ich hinkucken muss.
 
ja das fällt nur bei einigen stellen auf! einfach ne schritt vor und zurück! man muss aber drauf achten!
 
Bei mir flimmert nichts mit Nvidia. Wo genau solls denn flimmern damit ich weiss wo ich hinkucken muss.

Das hat "Jacke wie Hose" hier auf Seite 1 verlinkt, da sind auch Videos von Crysis mit einer flimmernden NVIDIA GTX 470 dabei:
AMD Radeon HD 6800 Reloaded: Der Blick aufs Detail - Bildqualität: AF: Texturflimmern (Seite 11)

Ist auch nen Video von the Witcher bei. Mit einer 5850 die deutlich flimmert und einer NVIDIA die es überhauptnicht macht.
Mich würde das stören, wenn häufiger als alle 5 Minuten währe. Gerade wenn man bedenkt, wie viel schlimmer es mit der 6000 Reihe wird. Zumindest sieht man hier ne deutliche Verschlechterung
http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_hd_6870_hd_6850/s09.php

Aber das ist ja auch nur ein kleiner Ausschnitt. Es ist sehr schwer, sich aus allen subejektiven Meinungen eine Prognose für die eigene Schmerzgrenze beim Zocken eines Spiels zu bilden .
Zumal 80% des Threads nur gehacke ist. Mir dröhnt der Schädel *lol*
 
Zuletzt bearbeitet:
Für mich sieht das eher aus als wolle man mir einreden das da was flimmert.
 
Ich habe es gesehen das es flimmerte! Ist aber wie gesagt nur wenn man genau drauf achtet!
 
Für mich sieht das eher aus als wolle man mir einreden das da was flimmert.

Lol, schau doch hin! Kann doch nicht sein dass man das nicht sieht. Genau das gleiche wie bei den 120Hz Monitoren, da wollen einige auch nicht sehen dass der Bildaufbau flüssiger ist :fresse:
 
Zuletzt bearbeitet:
Ich seh da echt nichts flimmern. Keine Ahnung was bei den Leuten kaputt ist die da was Flimmern sehn :d
 
:wall: ...
 
Zuletzt bearbeitet:
In dem Video siehst Du nix? :confused:
Da wo (auf dem Boden) das Kabel den hinteren Teil des Schattens vom Baum kreuzt, flimmert es doch wie sau.
 
Gib mir mal den direkt Link zu dem Video wo du was siehst. Evtl kuck ich ja was falsches an.
 
Ich glaube ich zocke morgen mal mit meiner GTX 260 ein paar Games und schaue, wie oft es wo flimmert. Wenn es ohnehin in einigen Spielen generell flimmert und mir das bisher nicht aufgefallen ist, dann wird mich das auch bei ATI nicht stören. Ansonsten nehme ich ne NVIDIA. Scheiß auf die paar Frames. Die nächste Karte kommt sowieso irgendwann.

---------- Beitrag hinzugefügt um 00:18 ---------- Vorheriger Beitrag war um 00:14 ----------

Gib mir mal den direkt Link zu dem Video wo du was siehst. Evtl kuck ich ja was falsches an.

AMD Radeon HD 6800 Reloaded: Der Blick aufs Detail - Bildqualität: AF: Texturflimmern (Seite 11)
(runterscrollen bis zum crysis video)
 
Zuletzt bearbeitet:
Das ist ja wie die Nadel im Heuhaufen. Wer auf sowas acht gibt hat nicht alle Tassen im Schrank.
 
Das ist ja wie die Nadel im Heuhaufen. Wer auf sowas acht gibt hat nicht alle Tassen im Schrank.

nett von Dir *g*
Naja ich denke mal ein Affe wird auch nicht so gravierdende zwischen einem Porsche und einem Trabi festellen. Da sind Sie dennoch. *g* Ich weiss schon was Du meinst aber der musste gerade sein, als Konter *g*

Kommt halt drauf an wie oft und es vorkommt. Wenns nur ein paar Stellen sind, ist es echt Wumpe. Wenns es alle paar Meter vorkommt, würde es mich schon stören. Ist halt so.
 
Allerdings meine ich, mich auch an bessere Farben [...]
Was sind bessere Farben?

Wieso nicht? Ich meine die Frage ernst. Du sagst, dass ein Bild aus einzelnen Pixeln besteht. Aber woher willst Du den wissen, wie der Treiber aus den Daten eines Programm die Pixel erzeugt, bzw ob dieser diese 1 zu 1 wiedergibt? Also ich muss zugeben, dass nicht sicher sagen zu können.

Die Daten aus dem Programm sind entweder Pixeldaten, also Bilder, oder Vektordaten in Form von Schrift.
Bilder werden 1:1 wiedergegeben, da jede Veränderung dieser Daten unnötigen Rechenaufwand bedarf. Und wie Vektordaten umgesetzt werden, hängt in erster Linie am Rasteralgorythmus, aber auch hier unterscheiden sich die Pixel höchstens in Farbnuanchen (Das kann über Scharf oder unscharf entscheiden!).
Problematisch sehe ich hier nur die immer wieder die schwammige Beschreibung und die Tatsache, daß man genau deine Argumente immer wieder liest und unsere wahrgenommene Realität davon immer wieder beeinflusst wird.
Nach dem Wechsel von einer HD5870 auf eine GTX560ti sehe ich keine schwammigen Icons. ICh bin sogar sehr froh über die Entscheidung, was aber garnichts mit der Bildqualität zu tun hat.
 
nett von Dir *g*
Naja ich denke mal ein Affe wird auch nicht so gravierdende zwischen einem Porsche und einem Trabi festellen. Da sind Sie dennoch. *g* Ich weiss schon was Du meinst aber der musste gerade sein, als Konter *g*

Kommt halt drauf an wie oft und es vorkommt. Wenns nur ein paar Stellen sind, ist es echt Wumpe. Wenns es alle paar Meter vorkommt, würde es mich schon stören. Ist halt so.


Kein Flimmern ist ja irgendwo Lebensqualität. Ich werd mich also nicht beschweren das ich für sowas kein Auge habe :love:
 
Bei mir laufen die Videos nicht.
Hab Fraps im Hintergrund laufen und Firefox als Browser.
Ich seh nur ein Einzelbild..
Jemand ne Idee?
 
Was sind bessere Farben?

Stell Dir nen coolen Sonnenuntergang oder ein Lächeln Deiner Traumfrau vor.
Also imho gibt die Hardware dies nie 100% so wieder, wie in der natur.
Die Hardware wird das Bild nie so 100% wieder geben wie es in echt ist.
Es gibt immer Abweichungen in den Farbtönen.
Es ist utopisch aber unsterstellen wir mal nen Monitor etc. der dies nicht macht (haben also nur noch die Graka). Da fand ich damals beim Wechsel von AMD nach NVIDIA, dass MD meiner Vorstellung und von einer der richtigen Farbabstimmung am nähesten kommt (Ich bezog mich auf das Bild im Desktop, stand da auch).

Imho gilt das auch für die Schärfe. 1 zu 1 geht imho garnicht. Digital hin oder her. Digital bedeutet imho nur, das jede Kopie des Bildes auf der selben Hardware immer gleich ausschaut.

Aber ist auch nicht mein Fachgebiet und ich lasse mich da gerne verbessern (ist mir eigentlich auch nicht so wichtig und kein Kaufkriterium, weil es war minimal)

Kein Flimmern ist ja irgendwo Lebensqualität. Ich werd mich also nicht beschweren das ich für sowas kein Auge habe :love:

Ja sei froh. Du hast das bessere Preisleistungsverhältnis pro FPS damit *g*
 
Zuletzt bearbeitet:
Was den nu? *lol*

Bei Grid flimmert schon lange nix mehr. Die Diskussion hatten wir erst vor kurzem. Bawde war auch dabei behauptet trotzdem noch das Gegenteil. Habs hier extra nochmal auf einer 5850 und 6950 getestet. Inzwischen ist alles gut. Die alten "Beweisvideos" kann man getrost in die Tonne treten.
 
Bei Grid flimmert schon lange nix mehr. Die Diskussion hatten wir erst vor kurzem. Bawde war auch dabei behauptet trotzdem noch das Gegenteil. Habs hier extra nochmal auf einer 5850 und 6950 getestet. Inzwischen ist alles gut. Die alten "Beweisvideos" kann man getrost in die Tonne treten.

OK (ich versuche hier wie gesagt nur eine Grundlage für nen Kauf zu bekommen und sowohl Laustärke als auch FPS sprechen für die von mir favorisierte ATI Karte. Deswegen meine ich die Frage ohne böse Absicht)

Bezieht sich das nur auf Grid oder auch auf die ganzen anderen Artikel und Videos? Wenn ja gibt es irgendwelche offiziellen Artikel/Berichte von HW Luxx oder anderen dazu? Bzw. hast Du mal nen Link zu dem Thread?
 
ist es nicht so, dass ich bei nvidia einfach mehr bekomme? *umguck* ich sehe hier 2 shutterbrillen und unterm tisch steckt eine zweite kleine grafikkarte für physX-berechnungen und CUDA, die in spielen wie alice MR, mafia2 und darkvoid oder batman erweiterte physik ermöglicht..

dazu der aus meiner sicht gute treiber, die möglichkeit in jeder API SGSSAA zu erzwingen und einen sauber, nahezu winkelunabhängig filternden anisotropen filter..

was genau spricht für eine unter gewöhnlichen einstellungen (MSAA) vergleichbar "schnelle" AMD-karte?? ich meine, okay.. da kommen wieder die argumente, dass es dem einen zu kompliziert ist, irgendwelche modi zu forcieren, anderen sind die "zugaben" zu teuer (shutterbrillen und 120Hz geräte sind recht kostenintensiv) und mancheiner verzichtet auch gern auf mehr bildinhalt durch erweitete physikbeschleunigung über die GPU.. aber *hust* das einfach reinstecken, installieren, läuft geht doch bei NV genauso wie bei ATI/AMD. alles was so dazugibt sind optionen, die man nutzen kann aber nicht nutzen muss. *confused*

ich für meinen teil nehme doch nach möglichkeit alles mit, was mir die immersion eines spiels steigert..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Eigentlich ist das ein Thread über das Flimmern von ATI Karten. Und kein NVDIA vs ATI Thread.

Ich will ja keinem was böses aber ich habe mir den ganzen Thread mit allen Links von vorne bins hinten angeschaut. Das hat super lange gedauert und ich währe wesentlich schneller zu potte gekommen, wenn es nicht ständig off toppic gehen würde.

@Toppic hat jemand nen Link zu dem Thread auf den elcrack0r sich bezieht?
 
Ich suche schon wie ein Wilder aber kann es nicht finden. War auch nicht das Hauptthema. Fakt ist ich hatte extra Videos angefertigt, alle möglichen Einstellungen durchprobiert, die Videos in Zeitlupe angeschaut und und und... da war nix. Anfangs war das noch anders. Da bekam man teilweise Augenkrebs. Nur da das Problem aus der Welt geschafft wurde, ärgert es mich, wenn bawde mit derselben alten Leier immer und immer wieder anfängt.
 
Zuletzt bearbeitet:
Eigentlich ist das ein Thread über das Flimmern von ATI Karten. Und kein NVDIA vs ATI Thread.

Ich will ja keinem was böses aber ich habe mir den ganzen Thread mit allen Links von vorne bins hinten angeschaut. Das hat super lange gedauert und ich währe wesentlich schneller zu potte gekommen, wenn es nicht ständig off toppic gehen würde.

@Toppic hat jemand nen Link zu dem Thread auf den elcrack0r sich bezieht?

Du darfst dich auch nicht so extrem hier auf die Meinungen der User verlassen... ganz ehrlich, die meisten plappern nur irgendwelchen "Müll" nach.

Du hast beide Karten bestellt. Also teste sie beide und schick eine davon zurück. Mach dir selbst ein Bild. Fällt dir das Flimmern durch den etwas schlechteren AF Filter auf, oder eben nicht.

Ein großes Problem bei dem Thema ist auch, das eben Kontent unabhängig vom AF teils stark flimmert. Da nutzt auch HQ AF von NV nix um das wegzubekommen. Und das ist der Punkt. Man streitet sich hier über "poplige" AF Filter, zieht dabei Games ran, die von Haus teils Flimmerorgien sind und sucht den minimalen Unterschied. Der Rest, also das was immer flimmert, wird dabei gekonnt ausgeblendet.

Um ein wirklich annähernd flimmerfreies Bild zu bekommen, nutze (SG)SSAA... Was offiziell nur in DX9 geht. Mit NV aber auch in DX10/11 erzwingbar ist. (unter Umständen mit Einschränkungen wie Bildfehlern usw.)
Dann hast du wirklich ruhiges Bild...

Krasses Beispiel: Gothic 3... Das Gras bzw. die Vegetation im allgemeinen dort flimmert ohne Ende. Auch bei NV.
Dreht man SGSSAA ein, ist alles ruhig... Und das auch bei AMD ;) Man sieht halt nur noch minimalste Unterschiede...


Zum Thema Mehrfeatures der NV Karten.
Das würde ich auch selbst beurteilen...
Für mich gilt:
- GPU PhysX ist ineffizient ohne Ende. Nutzt nur ne Hand voll Games und scheint im Moment auch nicht weiter entwickelt zu werden.
- Einstellmöglichkeiten wie Profile/AA Bits, SLI Bits usw. im NVInspector sind gut und schön... Aber man sollte auch die Zeit und Lust mitbringen dort rumzuprobieren um das max. rauszuholen.
- Cuda bringt im Gamingbereich Null Punkte...
- 3D von NV ist auch gut und schön, leider bei schwachen Karten absolut nicht zu gebrauchen. Man verliert ca. die Hälfte der FPS. Selbst mit einer 580GTX ist es schwer auf FullHD mit bissl schmankerln wie MSAA oder gar SSAA neuere Games in 3D zu zocken...

Für mich sind die oft auserkorenen Vorteile der NVs unterm Strich nur heiße Luft...
Nichts, was es bei AMD nicht auch geben könnte/würde bzw. was man unbedingt braucht als Gamer.

Also mein Tip an dich, steck beide Karten in den PC und schau dir die BQ selbst Live im direkten Vergleich an... Behalte die Karte, die dir besser zusagt.
 
Kann man so im Großen und Ganzen unterschreiben. Grad wieder bei Alice gemerkt, wie sinnlos PhysX ist, wenn es übelste fps-Einbrüche gibt damit...im SLI.

Downsampling hast aber vergessen. Wenn das einmal läuft kann man sich das Gefrickel mit den Bits ersparen, wenn man das nicht will. Und hat wirklich immer 2x2 OGSSAA zur Auswahl unabhängig von Game und API (außer ganz alte Schinken, die so hohe Auflösungen nicht wollen).
 
Für mich gilt:
- GPU PhysX ist ineffizient ohne Ende. Nutzt nur ne Hand voll Games und scheint im Moment auch nicht weiter entwickelt zu werden.
das ist nicht richtig.
„PhysX 3.0“-SDK bringt besseren Multi-Core-Support - 08.06.2011 - ComputerBase
- Einstellmöglichkeiten wie Profile/AA Bits, SLI Bits usw. im NVInspector sind gut und schön... Aber man sollte auch die Zeit und Lust mitbringen dort rumzuprobieren um das max. rauszuholen.

so schwierig ist das nicht, wenn man es 2x gemacht hat.. nach jahren (so wie bei mir) geht einem das in fleisch und blut über, sodass man nicht lange suchen muss, wenn man weiss, welche engine das spiel verwendet. flimmernde kontrastkanten und shader-aliasing habe ich schon zu NV40-zeiten mit der hybriden 8xS-keule (erfolgreich) bekämpft. die tools haben sich geändert über die jahre und die modi sind mannigfaltiger geworden, aber unterm strich ist es noch immer das gleiche wie immer..

für alle die weniger versiert oder lange dabei sind, gibts zum glück threads wie diesen hier:
3DCenter Forum - Antialiasing - Kompatibilitätsbits - Sammelthread

wichtig wäre auch, dass jeder versteht, was er da überhaupt einstellt. wenn ich sehe, dass es leute gibt, die versuchen 4xMSAA mit 8xSGSSAA zu paaren, könnte ich die hände überm kopf zusammenschlagen. man muss nämlich immer gleiche modi verbinden.. also etwas 4xMSAA + 4xSGSSAA oder halt 8xS (was heute 8xMSAA entspricht) mit 8xSGSSAA. und idealerweise passt man noch das LOD an. -1.0 für die 4fach modi und -1,5 für die 8fachen..

- Cuda bringt im Gamingbereich Null Punkte...
ist auch ncith so ganz richtig. im allgemeinen benötigt man eine "CUDA-fähige" GPU, um in spielen physX mit erweiterten effekten nutzen zu können. die kleinste zusatz-GPU kann in aktuellen titeln besser sein, als keine dedizierte zusatz-GPU.
Alice: Madness Returns PhysX benchmarks roundup | PhysXInfo.com - PhysX News
- 3D von NV ist auch gut und schön, leider bei schwachen Karten absolut nicht zu gebrauchen. Man verliert ca. die Hälfte der FPS. Selbst mit einer 580GTX ist es schwer auf FullHD mit bissl schmankerln wie MSAA oder gar SSAA neuere Games in 3D zu zocken...
darum bin ich auch auf beamerbetrieb für shutterspiele ausgewichen. da reicht es dank der 720p auflösung nicht nur für stereo-3D, sondern auch noch für SGSSAA. das ist über alle optischen zweifel erhaben und dem spielen auf nem 24" TN-bildschirm in fullHD klar überlegen; auch seitens des ghostings und des eigentlichen 3D-effekts.
Für mich sind die oft auserkorenen Vorteile der NVs unterm Strich nur heiße Luft...
Nichts, was es bei AMD nicht auch geben könnte/würde bzw. was man unbedingt braucht als Gamer.
hört sich ein bisschen AMD-gefärbt an - aber jedem das seine. mein kleiner neffe spielt auch lieber mit murmeln und lego.
Also mein Tip an dich, steck beide Karten in den PC und schau dir die BQ selbst Live im direkten Vergleich an... Behalte die Karte, die dir besser zusagt.
guter tipp, habe ich in meinem AMD auch. die spieleleistung der AMD-onboard-GPU ist zwar unterirdisch, aber immerhin ist eine fast friedliche koexistenz möglich.. betonung auf fast, denn wenn das an der AMD/ATI-grafik angeschlossene bildausgabegerät beim booten nicht eingeschaltet ist, mekkert der AMD-treiber mit einer fehlermeldung beim windowsstart vor-sich-hin; kann man aber wegklicken. ;-)

btw,
wenn man in foren fragen muss, was man sich kaufen soll, ist es wahrscheinlich wirklich egal, was man sich kauft.. da kann man auch einfach das billigere nehmen und solange es potenter performt als das bisher gehabte, wird man sich auch freuen. es liegt nicht in der natur des menschen, das was man gekauft hat schlechtzureden; wäre auch widersinnig, denn die entscheidungsfindung hat ja bereits stattgefunden.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Stell Dir nen coolen Sonnenuntergang oder ein Lächeln Deiner Traumfrau vor.
Also imho gibt die Hardware dies nie 100% so wieder, wie in der natur.
Die Hardware wird das Bild nie so 100% wieder geben wie es in echt ist.
Es gibt immer Abweichungen in den Farbtönen.
Es ist utopisch aber unsterstellen wir mal nen Monitor etc. der dies nicht macht (haben also nur noch die Graka). Da fand ich damals beim Wechsel von AMD nach NVIDIA, dass MD meiner Vorstellung und von einer der richtigen Farbabstimmung am nähesten kommt (Ich bezog mich auf das Bild im Desktop, stand da auch).

Das ist richtig, da der Farbraum ein anderer ist, nur findet diese Reduktion schon beim Fotografieren statt und sofern man nun ein ungeregeltes System hat, wie fast jeder hier, rechnet die Grafikkarte da auch nichts mehr um. Das Farbprofil gibt vor, wie die Farben darzustellen sind und das ist in beiden Fällen sRGB, außer man hat dran rumgestellt.

Aber ich frag nochmal: Was sind bessere Farben? Was ist natürlich? Mit welchem Ausgabegerät hast du deine Erkenntnis erlangt? Das ist wichtig, weil wir über die Bildqualität reden und da - du wirst mir zustimmen - ist es am Besten, wenn die Grafikkarte die Farbinfos wunschgemäß interpretiert, an den Monitor schickt und dieser diese nach bestem Wissen und Gewissen darstellt.

Leider kann ich jetzt keinen 1:1-Vergleich machen, denn die Fotos, die ich von meinem Setup habe, sind bei einer bestimmten Lichtsituation gemacht worden, die ich sicher so nicht mehr hinbekomme. Aber vielleicht besorg ich mir mal ne kleine ATi und stelle beide gegenüber.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh