***8800GTS vs. 2900XT THREAD***

Nu isses ja aber auch so, dass die 8800GTS von Haus aus sehr niedrig getaktet sind und meist default gebencht werden.Mit 513Mhz GPU und 800MHZ Ram gegenüber einer HD2900XT mit 740MHZ GPU und 900-1000MHZ Ram ist allein dadurch wie ich meine verzerrt.

Ich kenne glaube keinen, der seine 8800GTS nicht wenigsten auf GTX Takt 575Mhz GPU 900Mhz Ram laufen lässt. Aktuelle A3 Stepping GTS gehen problemlos 621Mhz GPU 1000Mhz Ram und mehr, also Ultra Takt.

Ich glaube dann sehen die Benches etwas anders und eher realisitsch aus.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@DSL Cowboy

NVidias Shadereinheiten arbeiten immer mit höherem Takt. Die sind auch im Defaultbetrieb (auf OC soll man nicht spekulieren) fast mit der doppelten Frequenz unterwegs. Die GTX gibt es übrigens nur in A2. Das A2-stepping limitiert oberhalb von 1500MHz Shadertakt; die ROP-Taktung ist fast vernachlässigbar.

Würde nach wie vor sagen, dass die GTX die bessere Wahl ist. Sie ist vom P/L -Verhältnis nicht teurer, weil sie genau das mehr kostet, was sie auch schneller ist (verglichen mit der GTS).


Grüße,
Euer George
 
Zuletzt bearbeitet:
Nu isses ja aber auch so, dass die 8800GTS von Haus aus sehr niedrig getaktet sind und meist default gebencht werden.Mit 513Mhz GPU und 800MHZ Ram gegenüber einer HD2900XT mit 740MHZ GPU und 900-1000MHZ Ram ist allein dadurch wie ich meine verzerrt.

Ich kenne glaube keinen, der seine 8800GTS nicht wenigsten auf GTX Takt 575Mhz GPU 900Mhz Ram laufen lässt. Aktuelle A3 Stepping GTS gehen problemlos 621Mhz GPU 1000Mhz Ram und mehr, also Ultra Takt.

Ich glaube dann sehen die Benches etwas anders und eher realisitsch aus.

hier geht´s um vergleiche@default (Preis/Leistung);)
eine xt kannst du auch noch übertakten;)
 
Also Graka übertakten tu ich sehr ungern, CPU kein Prob.
Für ne GTX habe ich defi. kein Geld.
Es geht wirklich nur zwischen 8800gts 640mb und ATI 2900xt.
Und zwischen den beiden is die ATI fast immer schneller kostet aber fast genauso viel wie die gts. also wäre die ATI doch die bessere wahl oder net?

Was is wegen dem ram unterschied?
Die Ati hat ja "nur" 512 mb und die GF 640mb, aber wie gesagt es wird immer nur auf 19ér tft gezockt
 
Zuletzt bearbeitet:
Da hat Erwin recht. Übertakten und die eh schon aberwitzige Strombilanz negativ beeinflussen, kann man auf beiden Seiten - das nächsthöhere Modell erreicht man aber in den Frameraten trotzdem nicht.
Also Graka übertakten tu ich sehr ungern, CPU kein Prob.
Für ne GTX habe ich defi. kein Geld.
Es geht wirklich nur zwischen 8800gts 640mb und ATI 2900xt.
Und zwischen den beiden is die ATI fast immer schneller kostet aber fast genauso viel wie die gts. also wäre die ATI doch die bessere wahl oder net?
Klar, die ATI liegt ja auch zwischen GTS und GTX. Nur zieht sie mehr Saft aus der Dose und verliert viel Leistung, wenn man sie ohne AI oder mit Kantenglättung und hochwertiger Texurfilterung betreibt.


Grüße,
Euer George
 
Zuletzt bearbeitet:
Wenn dich gelegentliches Treiber basteln und die Lautstärke nicht stören , ja ;)
 
Nu isses ja aber auch so, dass die 8800GTS von Haus aus sehr niedrig getaktet sind und meist default gebencht werden.Mit 513Mhz GPU und 800MHZ Ram gegenüber einer HD2900XT mit 740MHZ GPU und 900-1000MHZ Ram ist allein dadurch wie ich meine verzerrt.

Ich kenne glaube keinen, der seine 8800GTS nicht wenigsten auf GTX Takt 575Mhz GPU 900Mhz Ram laufen lässt. Aktuelle A3 Stepping GTS gehen problemlos 621Mhz GPU 1000Mhz Ram und mehr, also Ultra Takt.

Ich glaube dann sehen die Benches etwas anders und eher realisitsch aus.

das kannst du nicht mit der ATI vergleichen den Takt, und klar man die GTS OC, aber die ATI auch und dann isses wieder hinter der ATI;)
Hinzugefügter Post:
wäre die ATI doch die bessere wahl oder net?

ja auf jedenfall.
 
Zuletzt bearbeitet:
AI is doch ne optimierung die die BildQualli schlechter macht und somit die leistung steigert oder net?
AI mach ich eigentlci immer aus.
Und in den Benches is die ATI doch auch über der GTS wenns um 4xAA und 16xAF bei 1280´er Auflösung geht.

Was is mit der Kompatibl. Geschichte in bezug auf Audigy + 4gb ram+ Vista 64bit.

Edit: Zum Thema Lautstärke: Ich habe ja jetzt die 1800xt mit standart Turbine. Viel lauter kann die 2900xt ja wohl net sein oder?
Und zum verbrauch naja is eigentlich schon wichtig aber nur wenn beide auf gleicher Höhe wären dann würde ich die sparsamere nehmen, aber da zwischen den beiden ja schon n ganz schöner Unterschied liegt (zugunsten der ATI). tendiere ich zur ATI im Moment.
 
Zuletzt bearbeitet:
AI is doch ne optimierung die die BildQualli schlechter macht und somit die leistung steigert oder net?
AI mach ich eigentlci immer aus.
Und in den Benches is die ATI doch auch über der GTS wenns um 4xAA und 16xAF bei 1280´er Auflösung geht.

Was is mit der Kompatibl. Geschichte in bezug auf Audigy + 4gb ram+ Vista 64bit.

Betrifft die eigentlich die X-FI macht bei manchen Probleme , hatte das auch ist aber nun verschwunden. Sonst ist alles schön ;)
 
Was man nicht vergessen darf ist, dass die 8800GTS 33% weniger Shader Einheiten hat im vergleich zur GTX. Auch wenn man die GTS auf GTX Takt laufen hat, kommt man trotzdem nicht an die Leistung einer GTX heran da es Technisch nicht möglich ist.
 
AI is doch ne optimierung die die BildQualli schlechter macht und somit die leistung steigert oder net?
AI mach ich eigentlci immer aus.
Das mache ich auf meiner ATI hin und wieder auch - aber es macht keiner, der Benchmarks ins Netz stellt.

btw. für Vista würde ich mir einen DD/DTS AVR und ne anständige HD-Audio-Codec-Karte zulegen (etwa eine mit CMI8788) und den CL-Krempel rauswerfen.

@RoughNeck
Eine GTX kann problemlos 50% schneller sein, als eine GTS.


Grüße,
Euer George
 
@ George.Lucas

ist mir schon klar, wollte damit sagen das es nicht getan ist wenn man eine GTS auf 575 und 900 laufen hat und gleich die Leistung einer GTX hat.
 
;) Hätte ich den Platz würde ich es auch machen...

Okay BTT :)

OK - ich wollte auch schon den Smilie für BTT setzen.

Und wegen AI und Optimierungen.
Das gibts ja für Nvidia auch oder, somit isses bei Benches ja wieder gleich da dann wohl beide mit optimierungen gebencht werden.

Darum geht es doch gar nicht - du verstehst es nicht, oder?

Es geht darum, dass man Optimierungen nur bei NVidia wirklich abschalten kann. Das macht man, weil einen gewisse negative Effekte stören.
Wenn du bei ATI die Optimierungen abschaltest, verlierst du nicht nur die Optimierungen der Texturen - du verlierst auch Crossfire-Support und Bugfixes. AFAIR verlierst du mit AI off auch die Möglichkeit HDRr + MSAA in Spielen zu kombinieren, die das nicht vorsehen.

Das ist ein genauso subtiles Unterscheidungsmerkmal, wie die Geschichte mit dem Tripplebuffer. Wenn der nicht per se aktiv ist oder explizit von der Software aktiviert wird, ist er aus. Ohne Tripplebuffer verschenkt man auf TFTs eine Menge an Darstellungsqualität im VSync-Betrieb, weil ohne TB nunmal die ganzen Negativ-Effekte des VSync zum Tragen kommen. In den Treibern von ATI und NVidia lässt sich TB nur für OpenGL forcieren. Dass TB generell unter D3D aktiv ist, gibt es erst seit und nur beim G80.

edit:
wo ich grad bei subtilen Unterscheidungmerkmalen bin: wer einen HDTV betreibt und die Grakas über DVI oder HDMI anschließt, kann bei NVidia seit zwei (Vista) Treibergenerationen beliebige Auflösungen passgenau auf den HDTV ausgeben und auch den Overscan-Bereich stufenlos justieren. Selbst Klonbetrieb mit nativer Schreibtisch-Display-Auflösung (1680x1050 Pixel) kann passend gemacht werden. Vormals musste man ja das Schreibtischdisplay auf die HDTV-Auflösung reduzieren und hatte auf dem hd-ready-TV ca. 8-12% Overscan.


Grüße,
Euer George
 
Zuletzt bearbeitet:
Fakt ist imo:

NVIDIA (8800GTS)
- sehr leise
- etwas günstiger
- weniger stromverbauch
- gutes OC-Potenzial
- langsamer als die 2900XT


ATI (hier 2900XT)
- mehr Strom
- unter 3D hörbar
- gutes OC-Potenzial
- etwas schneller
- aber noch unausgereiftes Treiber Support (unter AA/AF)

-----------------------------------------

Also ich warte bis die neuen ATI Karten 2008 erscheinen, also auf 55nm Fertigung, die rocken hoffentlich alles weg und sind zudem leiser und nicht so stromfressend. I hate NVIDIA, aber imo kauf ich mir leiber ne Karte von der "Konkurrenz" :-) als nen Fön und Stromfresser im Gehäuse zu haben. Da hat ATI ein wenig Mist gebaut, meiner Meinung nach.
 
edit:
wo ich grad bei subtilen Unterscheidungmerkmalen bin: wer einen HDTV betreibt und die Grakas über DVI oder HDMI anschließt, kann bei NVidia seit zwei (Vista) Treibergenerationen beliebige Auflösungen passgenau auf den HDTV ausgeben und auch den Overscan-Bereich stufenlos justieren. Selbst Klonbetrieb mit nativer Schreibtisch-Display-Auflösung (1680x1050 Pixel) kann passend gemacht werden. Vormals musste man ja das Schreibtischdisplay auf die HDTV-Auflösung reduzieren und hatte auf dem hd-ready-TV ca. 8-12% Overscan.


Grüße,
Euer George
Schau mal im CCC unter HDTV da wirste die Scalierfunktion bei ATI finden seit dem 7.6er
 
Dann halt alles was die ATI hergibt. und vielleicht mit nem Hinweis, wo du Unterschiede zu sehen meinst.
Leistungsvergleich ist mir fraps auch schnell erledigt, aber mich interessiert nur, was du an der Grafik "anders" findest.



Grüße,
Euer George
 
Doch Grafik fand ich auch anders.
Hatte zuletzt die Ultra und zwischenzeitlich auch die Ati getestet, da kam mir das Bild (gerade bei Dirt) auch viel "smoother" vor.
 
Dirt* zb. Läuft Butterweich und sieht auch so aus.Mit der GTX hab ich Dirt* gestern noch gespielt gehabt und es fing wieder an zu Hacken dazu das Flimmern der Schatten .Es lief einfach nicht rund bei 1680x1050 Ultra Details und einige ecken waren trotz AA immer noch Stufig.

Selbes bei dem neuen Moha es läuft ohne zu Stocken bzw Hacken wobei die GTX wieder anfängt .
Auch hier sieht die grafik viel weicher und Schöner aus sind so kleine Details nur .
Die aber im gesamt bild sofort auffallen beim Spielen.

Morgen UP ich mal Screens von Dirt* dazu.
 
Bioshock Videocard Performance ist nur DX9 leider

http://www.techspot.com/article/64-bioshock-performance/page5.html


@George.Lucas
Ich mach nacher mal ein Screen vom CCC (Scalierfunktion)

brauchst du nicht machen - bin gerade durch mit dem Test. Ist im Prinzip sogar schlimmer als ich erwartet hatte.

zuerst einmal trifft genau das zu, was ich von Anfang an bemängelt habe: Man wird genötigt, den kleinsten gemeinsamen Nenner der beiden Displays als Auflösung zu verwenden. Bei meinem HD ready TV zusammen mit dem 1680Pixel Widescreen-Display auf dem Schreibtisch ist die gemeinsame Schnittmenge 1280x720 Pixel.


Dann positiv: im 720P Modus (als solchen interpretiert mein HDTV das HDMI-Signal mit 1280x720Pixeln) wird der ansonsten ausgegraute Schieber für die Skalierung freigeschaltet und man kann Overscan in Underscan ändern.


Dann passt das Bild auf dem HDTV, bis auf den Umstand, dass alles Pink ist..


Dass die 720P Klonauflösung auf dem Schreibtisch-Display bescheiden aussieht, muss ich ja nicht erwähnen - 1280x720 sieht auf 1680x1050 Pixel skaliert einfach matschig aus.

Jede andere im CCC eingestellte Auflösung für den HDTV endet endweder mit "Nicht unterstützter Modus" als OSD-Anzeige auf dem LCD-TV oder mit nicht abschaltbarem Overscan und ausgegrautem Skalierungsregler. Das Pink ignorieren wir einfach mal - um zu sehen, dass das Bild reihrund abgeschnitten wird, ist die Falschfarbe nicht relevant.



Dagegen funktioniert die NVidia-Steuerung hier sofort und problemlos. Vertikale und Horizontale unabhängig voneinander.



kein Problem mit 1680 Pixeln auf beiden Displays.. Kein Problem mit der Skalierung.. nicht rosa ;)



Das Bild passt einfach immer und man bricht sich im Klonbetrieb am Schreibtisch nicht die Augen, weil man eine nicht-native 720p oder 1080i -Auflösung eingestellt bekommt. Es laufen also in diesem Fall, beide Geräte mit 1680x1050 Pixeln @60Hz. Es ist aber auch jede andere Auflösung möglich.


Dieser kurze Exkurs auf dem ATI-System hat mir jetzt schon wieder den Spaß genommen, Weiteres zu versuchen.. vorhin hatte ich noch gedacht, dass wir uns jetzt Dirt um die Ohren hauen.. ;(




Edit: das Handling über einen VGA-Sub-D-Adapter hat natürlich ein anderes Verhalten, aber das erspare ich uns. Wenn der LCD-TV über VGA 1:1 Pixelmapping unterstützt wird er als Monitor erkannt und der NV-Treiber versteckt das Menu zum Anpassen des Desktops bzw. des Overscan (gibt ja auch keinen). Allerdings ist man bei HD-ready-Displays (nativ 1366x768 Pixel) dann auf 1360x768 Pixel als Maximalauflösung beschränkt.


Grüße,
Euer George
 
Zuletzt bearbeitet:
@George.Lucas
Also ich hab im Win 1920x1080 eingestellt und hatte bei 60Hz einen schwarzen Rand (1-1,5cm) beim LCD.
Den ich mit der Scalierfunktion wegbekommen habe und da ist auch nichts Pink oder sonst wie.
Graka 2900XT über HDMI angeschlossen


Ist ein älteres Bild hab gerade keine Cam da
 
Zuletzt bearbeitet:
Wenn man nur ein Display anschließt oder zwei Displays verwendet, die die gleiche native Auflösung haben, ist das ja auch kein Problem für den ATI-Treiber auf beiden Geräten ein augenfreundliches Bild zu zeigen.

btw. die Farbe kannst du ignorieren - sowas erlebe ich x-mal pro Woche mit Geräten, die über HDMI verbunden werden. Rosa, Grün und kaputte Pixel fallen unter Kinderkrankheiten.


Grüße,
Euer George
 
Zuletzt bearbeitet:
Auf Wunsch des Verfassers entfernt

Auf Wunsch des Verfassers entfernt
 
Ja stimmt schon, aber ich denke oder ATI oder Nvidia es gibt einfach nix besseres mal hat ATI die Nase vor dann paar Wochen/Monate später Nvidia wieder das wechselt sich einfach nur immer ab. Und wie man sich entscheidet hängt denke ich mal davon ab was man für Spiele spielt man sieht ja ATI läuft da besser dafür läuft Nvidia woanders wieder besser.

greetz

Jupp, meine Meinung :)
Man kann mit beiden Karten (GTS u. XT) keinen Fehler machen...beides Top Karten.
Btw sind GTS und XT ca gleichschnell und nicht wie hier oft extra schön gebencht wird ;)
Die GTX braucht man gar nicht vergleichen, die ist ein gutes Stück schneller wie beide...ist aber auch ein gutes Stück teurer.
Selbst in der aktuellen PCGH steht das beide auf gleichem Level sind. Aber das darfst hier nit schreiben, alles falsch...oder Test nicht gut..oder was weiß ich :d
Aber echte vernünftige Benches kommen hier keine.....nur Benches die merkwürdig sind...Benches auf verschiedenen Systemen....Benches von Seiten die man nicht kennt...halt alles wo die ATI gut aussieht....
duck und wieder wech bin^^


Flame weiter!!!!!!


:wink:

Eagleone19
Er macht doch nix, laut Threadtitel sind Meinungen über beide Karten gemeint, wenn da jetzt only 2900XT stehen würde, wäre das was anderes, aber er schreibt doch auch nur seine Meinung ;)
 
Zuletzt bearbeitet:
Ich nehme eh keine Benchmarks als Leistungsvergleich. Mein Bruder hat die gleiche 8800GTS aber nen E6750 auf 3,2Ghz und hat 11.500Pkts im 06er . Ich hab 9500 Pkt. mit meinem AMD...

Solange die Spiele alle in High Quality flüssig laufen, bin ich sehr zufrieden.
 
Habe hier, denke ich mal ein letztes mal durchgewischt! Kaum ist mal einmal nicht da... ;)

Einige leute sollten sich auch mal überlegen, was sie eigentlich schreiben!

Gruß
:wink:
 
Habe hier, denke ich mal ein letztes mal durchgewischt! Kaum ist mal einmal nicht da... ;)

Einige leute sollten sich auch mal überlegen, was sie eigentlich schreiben!

Gruß
:wink:

Prima , ich habe durch aus Verständniss für das Löschen.Doch wieder mal wurden Posts gelöscht die zum Thema waren, und kein geflamme oder sonst etwas.

Unter anderem von George.Lucas und mir.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh