Sorry das der Beitrag ein wenig länger gewurden ist, aber das musste sein
Was heißt mit 1,2V erwischt? was haben die denn sonst 1,1V?
Hab bei mir noch garnicht nachgeschaut aber meine XT geht locker 855/950.
Edit : wo seh ich das da der rivatuner mir Vids von 0,700 bis 1,350V anzeigt.
Jup es gibt mittlerweile XTs welche mit 1,15V und 1,1V laufen, um so weniger Spannung aber anliegt, um so weniger lassen sich die Karten aber idR OC'en, weils im Grunde die gleichen Chips sind...
Welches OS hast denn drauf, glaub unter Vista 64Bit zeigt der Rivatuner nix gescheites an, unter XP aber schon...
ich sag ich komm aber fast dran und nicht das ich es schaffen tue.fehlen ca.5%.ja blos bringen die 850 mhz nicht viel das ist der unterschied
Neja ne, die XT profitiert sehr gut von mehr Takt, einziger Nachteil bei solch performanten Karten, man sollte ne dicke CPU haben und auch mit AA/AF bzw. vollen Detail und max. Auflösung zocken, damit ne Limitierung der anderen Komponenten ausgeschlossen wird.
wie kann mich einer kleiner nennen der 10 jahre jünger ist als ich?hmm interessant,wie ich schon sagte dich kann man nicht für voll nehmen
und mit leuten aus der DDR sowieso nicht
Sorry, aber mit so nem Beitrag machst du dich lächerlich...
Meines Wissens
gibts die DDR schon seit über 10 Jahren nicht mehr, gerade wenn du so alt sein magst, solltest du doch schon so viel Verstand haben und solche Kommentare nicht los lassen.
und mal beim thema zu bleiben die ati ist bei aa und af nicht mal ansatzweise schneller als die gts und beim overclock potential wird der abstand noch grösser.weis gar nicht was es da zu diskutieren gibt.
klar gibts 1 oder 2 spiele die mit der ati besser laufen aber das wars dann auch schon
Ne das stimmt nicht, die XT und die GTS sind idR gleich auf, vllt minimal mehr für die XT oder GTS aber in der gleichen Leistungsklasse!
Mit einer "gut" OC GTS und auch mit einer gut OC XT schafft man eine GTX...zwar nicht in allen Games, aber in sehr vielen
Mir gings um seine GTS und die schafft flächendeckend noch keine GTX.
Übrigens, ne X1800XT (PE) ist heutzutage in etwa so schnell wie ne X1950Pro, gegen ne XT oder gar XTX sieht diese kein Land. Da nutzt auch der Takt nix, die Shader bringens einfach bei der Karte...
Und der Test dort den du gepostet hast weiter unten, mit der Asus X1800XT, schau dir mal an wie weit ne normale X1800XT hinterher hinkt, ...
Zumahl der Test schon ein wenig älter ist, mit neuen Games und neuen Treibern setzen sich die X19x0er Karten immer Stückweise weiter ab.
kann mir jemand mal erzählen warum alle erzählen mittlerweile sind die treiber auch bei aa/af gleichauf?stimmt doch gar nicht seit cat7,5 hat sich doch kaum was getan.ist das gewollte einbildung oder was?es gibt doch etliche treiber artikel wie z.b.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_79/
da sieht man ganz klar abgesehen von 1 oder 2 spielen das sich aber rein gar nix getan hat.
ich bin kein fanboy oder sonst was,ist schon schlimm genug das man das erwähnen muss aber fakt ist das sich sogut wie nix bei den treibern getan hat.
Der Test von CB ist, sagen wir mal gewöhnungsbedürftig.
Ich hab in einigen Tests bedeutend mehr FPS als die dort messen, von daher.
Und das CB in letzter Zeit nicht mehr 100% zuverlässige Vergleiche liefert sollte auch jedem bewusst sein.
Jeder hat seine Erfahrungen gemacht. Aber so schlechte Werte, welche die bei der XT gebenched haben, hab ich bei weitem nicht... Ich sag nur Stalker, Bioshock und Gothic 3!
Ich halte Computerbase seit Jahren für eine der besten Review Seiten überhaupt. Sie nehmen natürlich WorstCase Savegames und lesen die FPS ab. Im Falle von Gothic3 wird gleichermaßen die CPU und GPU getestet daher auch die niedrigen Ergebnisse. Die Ergebnisse sind real.
Ja seit Jahren stimmt schon, und das sie auch mal eine der Besten Seiten waren, stimmt auch, aber in letzter Zeit nimmt die Quallität der Tests kontinuirlich ab, leider!
Funzt ATItool / ATI Traytools eigentlich bei der XT, sprich Spannungen und Lüftergeschwindigkeit einstellen? Hab das nirgends gefunden
Also unter Vista 64Bit gehts leider nicht.
Unter XP gehts wenn man schnell ist, ich hatte schon Tests mit 1,35V bei 900MHz GPU Takt.
Leider wird bei diesen Takten und Spannungen die Karte so heiß (mit std. Kühlung) das die Games früher oder später abschmieren.
Mit mehr Spannung kannst du aber auch in DX10 Voll OC'ed fahren, was mit Std. Spannung idR nicht möglich ist.
G80 könnte zwar mehr, aber ATIs R600 schaltet bereits ab schon bei 8xAF(A.I. low) irgendwelche "Optimierungen" zu und es ist kein korrekter Vergleich mehr möglich. Besser wäre vielleicht sogar nur 4xAF zu nehmen, da sind beide gleichwertig in der Bildqualität, aber dann könnte man den G80 auch gleich durchbrechen, denn Texturleistung hat diese Teil soviel, dass man selbst mit 16xAF kaum weniger Frames hat, als mit 4xAF. High Quality ist in der Forceware nötig, weil die default Einstellung (Quality) nur die erste Stage (S0) der Basistextur trilinear filtert und alle weiteren Stages (S1-S7) nur ein brilineares Filter abbekommen. Unter HQ wird (wie bei ATI) generell trilinear gefiltert.
Also dem Grundsatz kann ich erstmal zustimmen, aber was da für Optimierungen drin sind sollte doch hupe sein, Fakt ist das man keinen Unterschied sieht, bzw. vllt mit der Lupe bei ein und dem selben Vergleichscreen.
Im Spielfluss merkt man nix. Wer das nicht glaubt, der hats entweder noch net getestet oder hat was mit den Augen...
Aber wenns darum geht, das man 100% das gleiche Bild haben muss, dann ist ein Vergleich von ATI und NV Karten sowieso nicht mehr möglich, da die ATIs nicht ganz 100% winkelunabhängig filtern können, egal was man einstellt.