@fdsonne
es geht darum das ich schon sehr lange beobachte was er so macht
Ja gut, wobei man sagen muss das er noch einer der wenigen ist, mit dem man noch über Sachen reden bzw. diskutieren kann und nicht von vorne herrein auf R600 Untergang aus ist...
Da gab es ganz andere...
Stimmt, und im ATI-Lager ist es Berni
Jo aber den wird wohl keiner zum verstummen kriegen...
Da hast wohl Recht, aber die HD 2900 XT kommt immer besser in Fahrt, dies darf keiner leugnen, und muss mir dies bestätigen. Schauen was der CAT 7.8 Beta nä. Woche reißen kann/ wird.
Denn der CAT 7.7 ist ja von 26.06.2007, also schon fast wieder einen Monat alt, und gut ein Monat nach dem Release der 2900 XT. In der Zwischenzeit müsste sich so einiges getan haben. Warten wir mal ab....
Nö, die Leistung ist in den meisten Games nicht sonderlich gestiegen, einige Verbesserungen in vereinzellten Games sind aufgetreten.
Und ja ich kann das beurteilen, weil ich die XT seit release habe... und bissher auch jeden Treiber durch getestet habe.
Dazu dukees Bench- und Treibervergleichsthread.
Und wenn ich schon wieder lese, "In der Zwischenzeit müsste sich so einiges getan haben."
Hör doch endlich auf mit dem gehype...
Ich finds schon krass, dass die Ultra so "weggeblasen" wird von einer günstigeren Karte^^
Man kann aber schon sagen das die 86er und 85er NV Karten sowie die HD 2xxx ATI Karten sehr gut auf 3DMark abgestimmt sind.
Also ich meine, das was dort geleistet wird, schafft man ingame meist nie.
Sowas kann an besagter sehr guter Treiberunterstützung für das Proggi liegen... oder aber der 3DMark06 Code passt gut zur Architektur, bzw. die kommt damit gut klar
EDIT: Was mich irgendwie nervt, dass mittlerweile nurnoch
ab 1280x1024 mit 8xaa und 16xaf gebencht wird. 2560xIrgendwas, das ist ja alles schön und gut aber wer (außer Ihr, ich weiß
) benutzt sowas überhaupt? Ich hab nen 19" TFT, der macht höchstens 1280x1024. Das reicht mir locker und wenn das Ding net kaputt geht, werd ich darauf auch noch in 5 Jahren zocken. Und bei meiner Graka stell ich auch nix großartig rum, dass lass ich auf "let Application decide" oder so und gut is. Ich finde mich selbst schon Grafikverliebt aber so utopisch hohe Qualitätseinstellungen und Auflösungen bringen (jetzt nur als Beispiel) vllt 5% mehr Grafikpracht aber kosten gleich 30% mehr Leistung und sowas ist meiner Meinung nach einfach Realitätsfremd.
Ich sag mal so, um so kleiner die Auflösung um so mehr AA muss man beispielsweise eindrehen um glatte Kanten zu erhalten.
Sprich wenn du 1920er oder 25xxer Auflösung fährst, brauchst auch nur noch wenig AA um gutes Bild zu haben.
Des weiteren ist der Vorteil von hohen Auflösungen, das Opjekte viel detailierter dargestellt werden können, man sieht schon nen riesen Unterschied wie ich finde.
Und ein weiterer Punkt ist ja, das die Benches fürs vergleichen der Leistung da sind. Wenn nun ne Graka bei nem älteren Game bei 1280er Auflösung und 4xAA+16xAF immernoch am CPU Limit hängt, dann lohnt ja ein Vergleich gar nicht.