***8800GTS vs. 2900XT THREAD***

ähm, auf 700/2200 ist die gts bestimmt schneller als ne gtx. Außerdem hat er es doch selber getestet, warum glaubt ihr ihm das denn net?

mfg
Vincent
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
im 3DMark ja vieleicht, in einem Spiel was richtig shader Power brauch kann sie sonst wie hoch takten, die GTS hat nur 96 die GTX 128.
Es gibt Spiel die das nicht Interessiert da ist die GTS genauso schnell wie die GTX.
in TDU zB kann er seine GTS auf 700/1000 Takten, dann ist sie so schnell wie ne standard 2900XT ;)
Ich hab TDU getestet (erste Seite).
 
Aber warum ist einfach der Test mit CAT 7.9 bei Computerbase so erschütternd, oft langsamer als CAT 7.8 und oft gar extrem niedrige fps, teils schlechter als wie mit Lauchtreiber! H A L L O !!
Wurde da was gekauft bei dem Treibervergleich seitens NV, oder warum schneidet die XT immer noch so schlecht ab?
Irgendwas ist faul bei den Benchmarks, dies ist klar!

Garnix ist da faul, seid doch nicht so naiv zu glauben das Ati irgendwelche Wundertreiber bringt das gabs nie und wird es auch nie geben.
 
Wenn man mit einer GTS eine GTX einholt, dann ist das System zu schwach, die Rechenwerke der GTX hinreichend zu füttern. Dann drückt man die GTX natürlich näher an die übertaktete GTS heran..

GTS 96 x 513= 49248
GTS-OC 96 x 700= 67000
GTX 128 x 575= 73600
Ultra 128 x 612= 78336

Weder in der Füllrate, noch in der Speicherbandbreite oder RAM-Menge kann man mit einer GTS eine GTX/Ultra erreichen.

Ich weiß jetzt von hier aus nicht, wie hoch die Shader-Domain taktet, wenn man die GTS auf 700MHz hochschraubt, aber die Spiele, die ausschließlich an der Shaderleistung skalieren und die von höherer Texturierungsleistung (TMU/ROP) oder größerer RAM-Menge unbeeindruckt bleiben, sind mir nicht bekannt.

Davon ab sollte man OC nicht ständig pauschal voraussetzen, nur weil es bei derzeitigem Code bis in den Himmel funktioniert. Es wird das Spiel kommen, für das man auf die Stock-Takte zurück muss. Ist nur eine Frage der Zeit.


Grüße,
Euer George
 
Zuletzt bearbeitet:
carlo33, mal im ernst, die test können net stimmen zumindest nicht alle.

Ich halte Computerbase seit Jahren für eine der besten Review Seiten überhaupt. Sie nehmen natürlich WorstCase Savegames und lesen die FPS ab. Im Falle von Gothic3 wird gleichermaßen die CPU und GPU getestet daher auch die niedrigen Ergebnisse. Die Ergebnisse sind real.
 
im 3DMark ja vieleicht, in einem Spiel was richtig shader Power brauch kann sie sonst wie hoch takten, die GTS hat nur 96 die GTX 128.
Es gibt Spiel die das nicht Interessiert da ist die GTS genauso schnell wie die GTX.
in TDU zB kann er seine GTS auf 700/1000 Takten, dann ist sie so schnell wie ne standard 2900XT ;)
Ich hab TDU getestet (erste Seite).

Auf der ersten seite ist kein TDU bench von dir!:hmm:

mfg
Vincent
 
Garnix ist da faul, seid doch nicht so naiv zu glauben das Ati irgendwelche Wundertreiber bringt das gabs nie und wird es auch nie geben.

Schwächen in Teilbereichen der Architektur (Texturierungsleistung) sind bekannt und werden auch nicht durch "Wundertreiber" obsolet; sie werden aber sicher in Blockbuster-Titeln durch Anpassung des Compilers im Treiber gelindert werden. Das ändert nicht grundsätztlich das Problem mit dem AA oder AF und es ist auch keine angenehme Sache, ständig auf den nächsten Treiber zu hoffen/warten, aber es ist erstmal besser als nichts. Es ist sicher keine Überraschung wenn ATI noch einen Refresh nachschiebt, wie damals bei der R520 und R580.

Es gab mal irgendwo im 3DC einen Test, wo das Texturleistungsproblem sehr schön an texturlastigen Spielen (Gothic3, Oblivion) gezeigt wurde. Während der G80 AF fast für lau anbot (zwischen 0AF und 16xAF lagen -4 oder -6 fps), wogegen die ATI kontinuierlich an Frames einbüßte; Frames im zweistelligen Bereich.

Die ATI schlägt sich gut in U3-Titeln und XBox360-Portierungen. Schlecht wenn es um Spiele mit Fokus auf Texturen geht. Im Multitexturing ist sie auch recht schwach, verglichen mit einer GeForce. Allerdings kann man gut und gern mit 60 U3-Titeln rechnen, die zur Lebzeit der Karte released werden.

Bis die Zeiten anrücken, wo sie einen entscheidenen Vorteil aus ihren Stärken zieht (der Vertexshader ist besser und sie hat auch gute Leistung im Geometrie-Shader), hat man sie leider schon vergessen. Dann ist sie dort, wo heute die X1800 steht.


Grüße,
Euer George
 
Zuletzt bearbeitet:
Wenn man mit einer GTS eine GTX einholt, dann ist das System zu schwach, die Rechenwerke der GTX hinreichend zu füttern. Dann drückt man die GTX natürlich näher an die übertaktete GTS heran..

GTS 96 x 513= 49248
GTS-OC 96 x 700= 67000
GTX 128 x 575= 73600
Ultra 128 x 612= 78336

Weder in der Füllrate, noch in der Speicherbandbreite oder RAM-Menge kann man mit einer GTS eine GTX/Ultra erreichen.

Ich weiß jetzt von hier aus nicht, wie hoch die Shader-Domain taktet, wenn man die GTS auf 700MHz hochschraubt, aber die Spiele, die ausschließlich an der Shaderleistung skalieren und die von höherer Texturierungsleistung (TMU/ROP) oder größerer RAM-Menge unbeeindruckt bleiben, sind mir nicht bekannt.

Davon ab sollte man OC nicht ständig pauschal voraussetzen, nur weil es bei derzeitigem Code bis in den Himmel funktioniert. Es wird das Spiel kommen, für das man auf die Stock-Takte zurück muss. Ist nur eine Frage der Zeit.


Grüße,
Euer George
In der Theorie sieht oft alles anders aus ;)
Warum kann man den locker eine 7800GT auf GTX Level bringen und eine X1800XT auf X1900XT ;)
Daten alleine sagen nix aus....


Garnix ist da faul, seid doch nicht so naiv zu glauben das Ati irgendwelche Wundertreiber bringt das gabs nie und wird es auch nie geben.

Jupp, so sieht es auch, das scheinen hier aber wenige zu begreifen ;)
Alle Test die was anderes Sagen werden als Schrott bezeichnet :d

ähm, auf 700/2200 ist die gts bestimmt schneller als ne gtx. Außerdem hat er es doch selber getestet, warum glaubt ihr ihm das denn net?

mfg
Vincent
Weil viele nur auf das schauen, was auf dem Papier steht ;)
 
Zuletzt bearbeitet:
In der Theorie sieht oft alles anders aus ;)


Weil viele nur auf das schauen, was auf dem Papier steht ;)


Auf dem Papier steht (CB) das die XT genauso schnell ist ist wie ne GTS.
Was nicht so ist, ich hab auch garkeine lust mehr mich darüber zu streiten, weil es glaubt eh keiner und glaubt lieber irgendwelche Seiten.

Ich hab sie getesten, ein fairer vegleich, und die GTS ist langamer das ist fakt.
 
In der Theorie sieht oft alles anders aus ;)
Warum kann man den locker eine 7800GT auf GTX Level bringen und eine X1800XT auf X1900XT ;)
Daten alleine sagen nix aus....
Wenn Theorie und Praxis nicht zusammen passen, ist die Theorie scheiße ;)

Beim G70 sollte man nicht vergessen, dass die Pipeline zu Stalls neigte und daß der Vorteil der zusätzlichen Pipelines (GT 20 vs. GTX 24) durch sowas unter ungünstigen Bedingungen verpuffen kann.

beim R580 glaube ich nicht, dass er vom R520 einzuholen ist. Da müsste man sich jetzt wieder die Teilbereiche der Architekturen (Shader, Texturleistung, Bandbreite) anschauen und das Spiel oder den Benchmark, das/der einen Gleichstand ausweist analysieren, um herauszufinden über welche "Ferse" grad eine Limitierung vorliegt. Einige Bereiche der GPU haben sich nicht maßgeblich verändert (TMU/ROP); nur die Shaderleistung wurde verdreifacht.

Ein G80 kann als GTX nicht gleichlahm wie ein GTS sein. Falls doch - ich schrieb es schon - wird er nicht richtig gefüttert (seitens der CPU - mit einem AMD kann man z.B. die GTX mächtig schlecht aussehen lassen) oder man hat die Nadel ähm.. das Spiel im Heuhaufen gefunden, das über eine Gemeinsamkeit des G80 limitiert. Allerdings kenne ich keine technische Gemeinsamkeit, in der der GTX nicht mehr Leistung hätte - OC hin oder her..

btw, wenn du einen Punkt gefunden hast, wo Gleichstand herrscht, dann drück eine weitere AA-Stufe rein (G80 muss nicht mit 4xMSAA laufen, der ist für mehr konzipiert und kommt auch gut mit 8 Subpixeln klar), dann ist auch der Unterschied wieder da, denn wenn der RAM ausgeht, hilft auch OC nicht weiter.

Am übernächsten Wochenende können wir das aber gern nochmal nachtesten, um den "Fehler" zu finden - was anderes kann es nicht sein.


Grüße,
Euer George
 
Zuletzt bearbeitet:
Auf dem Papier steht (CB) das die XT genauso schnell ist ist wie ne GTS.
Was nicht so ist, ich hab auch garkeine lust mehr mich darüber zu streiten, weil es glaubt eh keiner und glaubt lieber irgendwelche Seiten.

Ich hab sie getesten, ein fairer vegleich, und die GTS ist langamer das ist fakt.

Glaub was Du willst ;) Ich will mich auch nicht streiten, aus dem Alter bin ich raus...mich kann man nicht von meiner Meinung bringen da ich es selbst getestet habe und Test von CB oder PCGH bestätigen das...punto basta :)
Außerdem hab ich nichts davon, wenn ich irgendwelche Hardware in den Himmel hebe...


Wenn Theorie und Praxis nicht zusammen passen, ist die Theorie scheiße ;)


Grüße,
Euer George
Jo, das ist leider oft der Fall :)
 
Zuletzt bearbeitet:
Man Du bist ja nen richtiger Hardwarekiller :d



So der neue ATI Treibertest ist on :)
http://www.computerbase.de/artikel/...richt_ati_catalyst_79/1/#abschnitt_einleitung
Jetzt soll mir keiner mehr kommen mit, die XT hat einen soo großen Schritt gemacht durch neue Treiber:fresse:
Damit liegt sie immer noch auf GTS Level...nicht drüber und schon garnicht in der Nähe der GTX.....


Und wieder nur in so ner seltenen Auflösung 1600x1200.:kotz:
Kann mir mal jemand erklären was das soll. Im TFT Zeitalter wo doch die absolute Mehrheit n 19´er TFT haben und gar net in der Lage sind so ne Auflösung überhaupt einzustellen. Ich meine das Ergebnis sieht doch bestimmt ganz anders aus oder?
ca.90% der zocker spielen in 1280x1024. Und darum geht es mir auch.
1280x1024 ;4x AA;16xAF
Ich finde kaum Benches in dieser Auflösung.
Was steckt da denn fürn Plan dahinter. Weiß gar net was das für riesen TFT´s sein müssen die sone Auflösung machen.
Oder habe ich da n Denkfehler ?
Würde die ATI 2900xt net wesentlich besser gegenüber der GTS abschneiden wenn man in dem Setting bencht 1280x1024 ;4x AA;16xAF?
 
Nein eher umgekehrt, denn nach dem Performancerating von CB hat die 8800gts mit 4AA/16AF 8 oder 10 fps mehr.

mfg
Vincent
 
mehr hat sie nie egal was für ne auflösung und auch wenns 16 fach aa ist....

also ich zocke immer auf 1680x1050 und das ist gut so :d
 
beim R580 glaube ich nicht, dass er vom R520 einzuholen ist. Da müsste man sich jetzt wieder die Teilbereiche der Architekturen (Shader, Texturleistung, Bandbreite) anschauen und das Spiel oder den Benchmark, das/der einen Gleichstand ausweist analysieren, um herauszufinden über welche "Ferse" grad eine Limitierung vorliegt. Einige Bereiche der GPU haben sich nicht maßgeblich verändert (TMU/ROP); nur die Shaderleistung wurde verdreifacht.
Jo, Pixel/Texelfüllrate sind beim R520 identisch mit dem R580...eigendlich alles, bis auf die Shader-Einheiten
pro Pipeline.....Wie gesagt, es profitieren viele Games vom hohen Takt.....eine X1800XT PE ist in einigen Games sogar schneller wie eine X1900XT. Das kannst Du gerne in der Printed oder PCGH lesen...ansonsten auch hier in de luxx getestet worden.
Hier zb ein Test:
http://www.xbitlabs.com/articles/video/display/asus-eax1800xt-top_9.html#sect0



Ein G80 kann als GTX nicht gleichlahm wie ein GTS sein. Falls doch - ich schrieb es schon - wird er nicht richtig gefüttert (seitens der CPU - mit einem AMD kann man z.B. die GTX mächtig schlecht aussehen lassen) oder man hat die Nadel ähm.. das Spiel im Heuhaufen gefunden, das über eine Gemeinsamkeit des G80 limitiert. Allerdings kenne ich keine technische Gemeinsamkeit, in der der GTX nicht mehr Leistung hätte - OC hin oder her..

btw, wenn du einen Punkt gefunden hast, wo Gleichstand herrscht, dann drück eine weitere AA-Stufe rein (G80 muss nicht mit 4xMSAA laufen, der ist für mehr konzipiert und kommt auch gut mit 8 Subpixeln klar), dann ist auch der Unterschied wieder da, denn wenn der RAM ausgeht, hilft auch OC nicht weiter.
Also ich hatte einen C2DE6300@3600Mhz zum Test verwendet. Ich hatte schon alles auf Max...nur halt als Auflösung nur 1440x900...mehr gibt mein Monitor nit her^^
Ich will mich jetzt auch nicht felsenfest drauf drauf legen das ich keinen Fehler gemacht hatte (bin ja auch nur ein Mensch^^) aber ich hatte auch in einem Test (den such ich nacher mal raus...glaub war auf TweakPC? ka) das eine OC GTS in ein paar Games einer GTX gleichwertig war.
Evtl hat ja mal jemand Lust eine stark OC GTS gegen eine default GTX antreten zu lassen :)
Wie gesagt es profitieren viele Games vom eigentlichen GPU Takt...da steht 700Mhz vs 575Mhz...

Allerdings kenne ich keine technische Gemeinsamkeit, in der der GTX nicht mehr Leistung hätte - OC hin oder her..
Naja mit 700Mhz hätte die GTS eine Pixelfülrate von 14000^^ :)


Am übernächsten Wochenende können wir das aber gern nochmal nachtesten, um den "Fehler" zu finden - was anderes kann es nicht sein.
Leider habe ich keine GTX mehr zur Verfügung, mein Kumpel hat die verkauft und sich eine XT gekauft. Er brauchte nicht die Leistung und wollte mal wieder ne ATI probieren^^
Hat Plus gemacht und ist zufrieden.
Und mein Testsystem musste auch einem X2 5000 weichen, da ich momentan den PC nur zum Surven verwende, kaum Zeit habe und demnächst erst mal wieder wieder mit ner Konsole zocke. Ich verkaufe jeden Sommer mein System, da ich gerade da kaum Zeit habe zum zocken und wie stark Hardware altert weis man ja :( Zum rumliegen ist es zu schade ;)
Wie gesagt, kann auch sein das ich mich irre ;)

Und wieder nur in so ner seltenen Auflösung 1600x1200.:kotz:
Kann mir mal jemand erklären was das soll. Im TFT Zeitalter wo doch die absolute Mehrheit n 19´er TFT haben und gar net in der Lage sind so ne Auflösung überhaupt einzustellen. Ich meine das Ergebnis sieht doch bestimmt ganz anders aus oder?
ca.90% der zocker spielen in 1280x1024. Und darum geht es mir auch.
1280x1024 ;4x AA;16xAF
Ich finde kaum Benches in dieser Auflösung.
Was steckt da denn fürn Plan dahinter. Weiß gar net was das für riesen TFT´s sein müssen die sone Auflösung machen.
Oder habe ich da n Denkfehler ?
Würde die ATI 2900xt net wesentlich besser gegenüber der GTS abschneiden wenn man in dem Setting bencht 1280x1024 ;4x AA;16xAF?
Gerade in 1280x1024 nehmen sich beide nichts...bei 2560x1600 ist die XT wiederum schneller.
 
Zuletzt bearbeitet:
naja, in 1680x1050 4xAA 16xAF 35 -25 FPS:(

(alles MAXED)

PS:wird bestimmt eh gleich gelöscht :fresse:
PSS: GTS ist genauso, also wayne
 
Also hier haste deine Screens

ATI HD2900XT 512MB =31 FPS @1680x1050 6aa und 16af

NV 8800GTS 640MB =21 FPS @1280x1024 (mehr packt der bildschirm net vom freund) 4aa und 16af (mehr aa geht im game bei NV auch net)




---so was jetzt???? NV immer noch schneller:fresse:
 

Anhänge

  • ATi.jpg
    ATi.jpg
    130,3 KB · Aufrufe: 67
  • NV.jpg
    NV.jpg
    126,1 KB · Aufrufe: 59
kp, fands nur lustig.
Bin selber voll der Legi. Weil ich auch einfach net drauf achte.
Aber zu Crysis:
Also ich wäre mit den fps auf den Screens absolut zufrieden. Es sieht auf jeden Fall sehr geil aus, und spielbar isses bei den FrameRaten auch.
Weiß jemand ob das dx9 oder dx10 ist?
Sind die Screens defen. von ner ati 2900xt?
 
Also hier haste deine Screens

ATI HD2900XT 512MB =31 FPS @1680x1050 6aa und 16af

NV 8800GTS 640MB =21 FPS @1280x1024 (mehr packt der bildschirm net vom freund) 4aa und 16af (mehr aa geht im game bei NV auch net)




---so was jetzt???? NV immer noch schneller:fresse:


OK Nett für den test nur wie sind die SYSTEME du hast aj nen Dicken Quad drin , wennd er andere aber nur ein 4200+X² hat ist das ein wenig Unfair:)

Gruß

Eagleone19
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh