Die Blinden die am lautesten Schrein ham ne nVidia zu Hause...
sag ich mal so, HeHe
sag ich mal so, HeHe
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
ok kuluwuschKaranso schrieb:Die Blinden die am lautesten Schrein ham ne nVidia zu Hause...
sag ich mal so, HeHe
Dominator18 schrieb:
http://enthusiast.hardocp.com/image.html?image=MTE1MzU5NDI5MGdxTGdRV2plUVFfM183X2wucG5n
Lese dir das Review durch fals du english kannst.Bei jeden Spiel schreiben die das das es auf der Ati besser aussieht.
Accuface schrieb:ich will ja nix sagen, aber bei der ati fehlt einiges, man schau sich mal den Busch hinten mittig an. bei der ATI ist der garnet abgebildet, toll wenn ATI schon was unterschlägt, kein Wunder warum sie bei Oblivion schneller sind
und die Bäume links mit den Blättern sehen bei der Nvidia wesentlich besser detailiert aus. Wo man was sieht ist der Weg, aber das bekommt man weg indem man die Optimierungen deaktiviert bzw Supersampling und Hohe Qualität verwendet
gibts noch mehr Bilder ? und welche Grafikeinstellungen haben die verwendet ?
wenn du seriöse Vergleiche haben willst, gehe auf COmputerbase und schaue dir da die Bilder zu den jeweiligen getesteten Spielen an und vergleiche..btw mein Lieblingsbeispiel BF2, bei ATI Treppen und bei Nvidia schön glatte bei gleicher AA Stufe
btw das hier welche was von Augenkrebs schreihen, wenn man ohne AA und AF spielt kann man wohl von Augenkrebs sprechen.
Und die ganzen Optimierungen sollte man bei Nvidia ausschalten, als ich mal die ganzen Optimierungen aktiviert hatte dachte ich wirklich ich faule so schlecht war das AF, da kann ich euch verstehen. aber ohne Optimierungen erkennt man wirklich keinen Unterschied
Dominator18 schrieb:Jo Crysis wird auf Ati Karten eh besser laufen.Bei Crysis wird eine X1950 XTX ein 7950 GX2 mit Sicherheit platmachen.Nicht ohne grund liefen alle Techdemos von Crysis auf einer X1900.Schon erbärmlich das es Nvidia grade so schaft mit 2 Karten eine X1950 XTX grade noch so auf distanz zu halten.
Night<eye> schrieb:ok kuluwusch
einmal NV immer NV thats me
naja wie gesagt wo gibt es schon HDR Spiele wo das AA und HDR gleich funzt ? also Oblivion funzt ohne den Chuck Patch kein AA von standard, früher funzte auch kein AA und HDR bei der ATI bei Ghost Recon AW (weiss jetzt nich ob das gefixt wurde, beim release funze es jedenfalls net)
und das wars auch schon mit echten HDR Spielen (neben Far Cry und SC3 natürlich ), die anderen wie HL2 sind pseudo HDR und lassen sich mit jeder GK darstellen.
Also bei der Auswahl an HDR Spielen sieht es eher mager aus und das innerhalb von 2 Jahr. Und bis jetzt echte HDR Spiele rauskommen gibts schon lange die neue Generation, und selbst wenn denke ich die Programmierer werden ein Pseudo HDR als alternative zum echten HDR in die Spiele integrieren
mit offiziellen treibern wird dann kein AA dargestellt. mit chuck-patch schon. so macht man das dann ja auch. AA per treiber forcieren und den rest im spielmenu einstellen.Wie ist das eigentlich wenn ich im Treiber AA anschalte und im Spiel dann HDR? Beispiel FlatOut 2.
Lasse zwar im Moment eh immer alles wo es nur geht auf HigH, Im Spiel und im Treiber.
Accuface schrieb:naja wie gesagt wo gibt es schon HDR Spiele wo das AA und HDR gleich funzt ? also Oblivion funzt ohne den Chuck Patch kein AA von standard, früher funzte auch kein AA und HDR bei der ATI bei Ghost Recon AW (weiss jetzt nich ob das gefixt wurde, beim release funze es jedenfalls net)
und das wars auch schon mit echten HDR Spielen (neben Far Cry und SC3 natürlich ), die anderen wie HL2 sind pseudo HDR und lassen sich mit jeder GK darstellen.
Also bei der Auswahl an HDR Spielen sieht es eher mager aus und das innerhalb von 2 Jahr. Und bis jetzt echte HDR Spiele rauskommen gibts schon lange die neue Generation, und selbst wenn denke ich die Programmierer werden ein Pseudo HDR als alternative zum echten HDR in die Spiele integrieren
komi$ch schrieb:würde es sich net rechnen, würden sie es net machen
klar. ati könnte ja die chips durchsägen. dann hätten sie die hälfte der verlustleistung/leistungsaufnahme und in etwa die leistung einer G71 core..ATI könnte sich da meiner meinung nach ne scheibe von nv abschneiden, solange ATI keine wirklich leisen kühllösungen bietet, sind deren karten für mich leider uninteressant.
PitGST schrieb:die ist nicht hässlich ATI is hässlich BQ ist mir wurst weil ich overclocker bin und kein BQ freak
OliverM84 schrieb:OC-mäßig hätte ich schon etwas mehr erwartet bei der Karte ...