in TheWitcher und in Oblivion gingen bei mir jedoch 24xEDAA nicht . Bei TheWitcher gingen nicht mal mehr als die Spielinternen 2xAA...
Mit CF 4870?
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
in TheWitcher und in Oblivion gingen bei mir jedoch 24xEDAA nicht . Bei TheWitcher gingen nicht mal mehr als die Spielinternen 2xAA...
Adaptives AA funktioniert bei Ati auch nicht mehr nach altem Schema. Der Treiber entscheidet von alleine ob er MSAAA oder SSAAA verwendet.
Was meinst du mit Games, wo es sich nicht erzwingen lässt?
Weil dort kein AA möglich ist?
Mit CF 4870?
Ahso... dann hab ich das wohl falsch verstandenda du scheinbar der Einzige bist, der es nicht verstanden hat:
Ich habe so mein System beschrieben, dh. das NT reicht für nen Q66@3hz und 280GTX und damit sollte es locker für ne X2 reichen, weil der Q66 etwas mehr als der E84 verbraucht .
Adaptives AA funktioniert bei Ati auch nicht mehr nach altem Schema. Der Treiber entscheidet von alleine ob er MSAAA oder SSAAA verwendet.
Aha, die Nvidia-Fraktion ist wieder mal sooo um ATIs Bildqualität besorgt.
Das weiß ich doch selbst. Braucht mir doch kein Nvidianer zu erzählen.
Was nützt mir bei TDU im Treiber 24xMSAA wenn es im Spiel nicht angenommen wird sondern nur das interne 4xAA? Leider gibt es einige Games welche die 24xMSAA vom Treiber leider nicht übernehmen und somit die möglichen Qualieinstellung brach liegen.
Du scheinst es nicht zu begreifen. Es geht darum, das euch vorgeschrieben wird was ihr nehmen dürft und was nicht. Ich möchte das aber bitte selbst entscheiden dürfen und nicht das was Ati einem vorschreibt! Wenn ich Supersampling wähle dann möchte es auch so sein, genauso verhält es sich auch mit den anderen AA Modis.
Wie is denn die Karte von Gecube?mit 1 GIb? Ist ja grad mal 30 euro teurer wie die 512er...
wozu hat man denn die 24aa egde zur auswahl wenn man es kaum nutzen kann.ok man kann es nutzen wenn man a.i. auschaltet aber dann ist auch cf hinüber.
Eine X2 brauch unter vollast ca. 350W. nur die karte....
Selbst dann geht es leider in manchen spielen nicht
Du scheinst es nicht zu begreifen. Es geht darum, das euch vorgeschrieben wird was ihr nehmen dürft und was nicht. Ich möchte das aber bitte selbst entscheiden dürfen und nicht das was Ati einem vorschreibt! Wenn ich Supersampling wähle dann möchte es auch so sein, genauso verhält es sich auch mit den anderen AA Modis,Optimierungen und MultiGPU Geschichten.
Wenn AA nur in-game einstellbar ist, dann stell im CCC Edge-Detect ein und mach bei AA ein Häkchen für "Use application settings". So hat das ATI-Mitarbeiter Eric Demer, auch unter sireric bekannt, erklärt. Er sollte es eigentlich wissen.
bei 275W TDP oder was
Eine HD4870 zieht 130W nur die Karte, denn rest kannst dir selbst ausrechnen.
Big powahhhh needed for a Crossfire X setup, as we can see above. We wouldn’t recommend anything under a decent quality 1 KW power supply. Our 1500 Watt Thermaltake power supply absolutely ran like a dream with the cards.
muessen 2 GPUs draufschnallen
muessen 2x 1024mb ram draufschnallen damit man insgesamt 1gb zur verfuegung hat (teuer und ineffizient)
verbraucht wie sau
und das schlimmste, die mikroruckler sind nach wie vor vorhanden
dazu die ati typisch verbuggten treiber
langsam mache ich mir sorgen um amd/ati
schade, schon wieder ein rohrkrepierer
muessen 2 GPUs draufschnallen
muessen 2x 1024mb ram draufschnallen damit man insgesamt 1gb zur verfuegung hat (teuer und ineffizient)
verbraucht wie sau
und das schlimmste, die mikroruckler sind nach wie vor vorhanden
dazu die ati typisch verbuggten treiber
langsam mache ich mir sorgen um amd/ati
dich selber
ich hab mir ein paar reviews angesehen und mein fazit gezogen (und gepostet)
darf man das nicht mehr?
Naja, "können" wäre richtiger.
Ist halt eine günstige, genügsame und kühle GPU. Da kann man auch zwei von verbauen.
Mit zwei GT200 wirds schwieriger.
Nvidia kann sowas im Moment nicht.