ATI HD 2900 XT vs. NVidia 8800 GTS

8800 gts
+Preis
+Verbrauch
+Temperatur
+Lautstaerke
+Bildquali.
+Bessere Treiber
-Leistung

VS

hd 2900 xt
-Preis
-Verbrauch
-Temperatur
-Lautstaerke
-Bildquali.
-sehr schlechte 16-Bit-Qualität
+mehr Leistung als GTS

die fett hinterlegten Punkte sind falsch!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
die fett hinterlegten Punkte sind falsch!

Warum falsch?
Fakt ist: Die HD 2900 XT wird verdammt heiss! Dazu bietet sie nachweislich die etwas schlechtere BQ gegenüber dem G80 (Stichwort AF mit leichten "Ohren" beim 16xAF, Beweise siehe Computerbase-Test!).
Die schlechte 16 Bit BQ stimmt ebenfalls, hat NVIDIA aber schon seit dem NV 40 zu bieten.

MfG :cool:
 
8800 gts
+Preis
+Verbrauch
+Temperatur
+Lautstaerke
+Bildquali.
+Bessere Treiber
-Leistung

VS

hd 2900 xt
-Preis
-Verbrauch
-Temperatur
-Lautstaerke
-Bildquali.
-sehr schlechte 16-Bit-Qualität
+mehr Leistung als GTS

Polska
- Kompetenz
- Objektivität
- Fachwissen

VS.

Jano
+ Geiler Typ
+ Einfach Cool
+ Voll der Checker
 
Warum falsch?
Fakt ist: Die HD 2900 XT wird verdammt heiss! Dazu bietet sie nachweislich die etwas schlechtere BQ gegenüber dem G80 (Stichwort AF mit leichten "Ohren" beim 16xAF, Beweise siehe Computerbase-Test!).
Die schlechte 16 Bit BQ stimmt ebenfalls, hat NVIDIA aber schon seit dem NV 40 zu bieten.

MfG :cool:

ich frage mich wo diese Karte heiß wird? Falls du dich auf den CB Artikel beziehst, dort haben die wohl die Sensoren verwechselt (GPU-PCB).

Temperatur:

Kühlung: Swiftech MCW60

8800 GTX stockv: 47°C Volllast
8800 GTX @ 1.65V: 61 °C Volllast
8800 GTS stockv: 46°C Volllast
8800 GTS @ 1.5V: 51°C Volllast
2900XT stockv: 48°C Volllast

Kühlung: Standardkühler

2900XT stockv: 71°C Volllast


BQ

Den Blur-AA Modus mag ich auch nicht, aber wenn man ihn nicht nutzen möchte nimmt man einfach den Box-AA Modus. Dieser steht dem der 8800GTX in nichts nach. Weiterhin hat man wie auf der 8800 GTX ein ziemlich ruhiges Bild, auch mit AF (kein Flimmern etc). Daher wird man kaum einen Unterschied bei 4AA/16AF erkennen können.


schlechte 16bit-BQ

Diese liegt wie du schon sagtest bei der 8800er Serie auch vor und daher müßte man sie wenn bei beiden Karten als Negativpunkt nennen.
 
ich frage mich wo diese Karte heiß wird? Falls du dich auf den CB Artikel beziehst, dort haben die wohl die Sensoren verwechselt (GPU-PCB).

Temperatur:

Kühlung: Swiftech MCW60

8800 GTX stockv: 47°C Volllast
8800 GTX @ 1.65V: 61 °C Volllast
8800 GTS stockv: 46°C Volllast
8800 GTS @ 1.5V: 51°C Volllast
2900XT stockv: 48°C Volllast

Kühlung: Standardkühler

2900XT stockv: 71°C Volllast

Wie sieht die Temp und vor allem die Lautstärke der Gf 8800 GTX mit Standardkühler aus?
Die höhere Verlustleistung der HD 2900 XT bedeutet zwangsweise eine höhere Lautstärke, insofern ein klares Contra-Argument gegen die HD 2900 XT!

BQ

Den Blur-AA Modus mag ich auch nicht, aber wenn man ihn nicht nutzen möchte nimmt man einfach den Box-AA Modus. Dieser steht dem der 8800GTX in nichts nach. Weiterhin hat man wie auf der 8800 GTX ein ziemlich ruhiges Bild, auch mit AF (kein Flimmern etc). Daher wird man kaum einen Unterschied bei 4AA/16AF erkennen können.

Ich beziehe mich nicht auf das Blur-AA, sondern auf das immer noch leicht winkelabhängige AF selbst auf HQ-AF. Beim G80 ist die AF-Blume nahezu kreisrund, beim R600 immer noch viereckig!
CB ist gerade down, kannst es dir aber selber angucken!

MfG :cool:
 
Wie sieht die Temp und vor allem die Lautstärke der Gf 8800 GTX mit Standardkühler aus?
Die höhere Verlustleistung der HD 2900 XT bedeutet zwangsweise eine höhere Lautstärke, insofern ein klares Contra-Argument gegen die HD 2900 XT!



Ich beziehe mich nicht auf das Blur-AA, sondern auf das immer noch leicht winkelabhängige AF selbst auf HQ-AF. Beim G80 ist die AF-Blume nahezu kreisrund, beim R600 immer noch viereckig!
CB ist gerade down, kannst es dir aber selber angucken!

MfG :cool:

Die Lautstärke empfinde ich im 3D-Modus als ziemlich störend (obwohl noch eine Vapochill LS nebenbei läuft). Wobei ich, wenn man die Temps betrachtet, nicht verstehe, warum ATI den Lüfter (12W) so hoch drehen lässt. Die Lautstärke kann man also schon als Negativkriterium auffassen.

Man mag den Unterschied in der AF-Blume sehen, aber in Games ist es schwierig Unterschiede herauszufiltern. Das AF der R5x0 Karten war schon ziemlich gut und die 8800er Serie konnte dieses ja noml leicht überbieten (falls man überhaupt Unterschiede sehen konnte). Das AF des R600 liegt zwischen R5x0 und 8800 und somit würde ich diese marginalen Unterschiede nicht als negativ einstufen.
 
8800 gts
+Preis
+Verbrauch
+Temperatur
+Lautstaerke
+Bildquali.
+Bessere Treiber
-Leistung

VS

hd 2900 xt
-Preis
-Verbrauch
-Temperatur
-Lautstaerke
-Bildquali.
-sehr schlechte 16-Bit-Qualität
+mehr Leistung als GTS ( was Rohleistung betrifft, bei so einer Karte eher Sinnfrei )
-kein UVD
-"nur" GDDR3
;)
 
Zuletzt bearbeitet:
. Das AF des R600 liegt zwischen R5x0 und 8800 und somit würde ich diese marginalen Unterschiede nicht als negativ einstufen.

Schlecht ist die Bildqualität nicht, aber wenn man schon zwei Karten miteinander vergleicht, darf man also schon sagen:

HD2900XT

Bildqualität -


Diese Aussage steht nicht alleine im Raum, sondern findet Bezug in der Qualität der Konkurrenzkarte.
 
Man mag den Unterschied in der AF-Blume sehen, aber in Games ist es schwierig Unterschiede herauszufiltern. Das AF der R5x0 Karten war schon ziemlich gut und die 8800er Serie konnte dieses ja noml leicht überbieten (falls man überhaupt Unterschiede sehen konnte). Das AF des R600 liegt zwischen R5x0 und 8800 und somit würde ich diese marginalen Unterschiede nicht als negativ einstufen.
Wer möchte nicht gern ein Bild was über jeden Qualitätsanspruch erhaben ist, gerade bei solchen Karten. Ich habe den Eindruck, A/A erkauft sich mit diesen leichten Optimierungen Leistung, weil sie ansonsten noch hinter die GTS fallen würde.
 
Ich beziehe mich nicht auf das Blur-AA, sondern auf das immer noch leicht winkelabhängige AF selbst auf HQ-AF. Beim G80 ist die AF-Blume nahezu kreisrund, beim R600 immer noch viereckig!
CB ist gerade down, kannst es dir aber selber angucken!

MfG :cool:

Scheiss doch auf die AF-Blume, wichtig ist was in Games dabei rumkommt.
Nach den ganzen User-Tests ist da kein Unterschied.
Außerdem solltest du ruhig sein solange du noch kein R600 in Aktion gesehen hast.
 
Ich habe den Eindruck, A/A erkauft sich mit diesen leichten Optimierungen Leistung, weil sie ansonsten noch hinter die GTS fallen würde.

Gibt es in Bezug auf deinen Eindruck auch irgendwelche Beweise oder gar eine Begründung für deinen Eindruck ??? Würde mich sehr gerne interessieren, weil ich allgemein nicht so der Freund von unbegründeten Dingen bin :-)

Gruß:angel:
 
also nachdem hier mehr so fanboy einträge waren lass ich jetzt mal fakten für sich sprechen, und außerdem die x2900xt ist fast genauso schnell wie eine 8800gtx was eindeutig für sich spricht nachzulesen hier und hier
 
Welchen Sinn haben High-End Karten ohne genug Leistung für AA und AF???

von highend-karten sollte man erwarten können, dass sie die gegebenen anforderungen haben

ROFL! Du kannst auch auf die ersten DX20 Karten warten, die kommen dann im Jahr 2025. sind um Meilen besser, als die heutigen Karten. :wall:

OMG, diesen dummen spruch häng ich mir an die wand :d

Ich schreibe nochmal kurz die Vorzüge der Karten:

2900XT: meist schneller in hohen Res (jedoch nur ohne AA/AF!)
8800 GTS 640 MB: weniger Stromverbrauch, leiser, günstiger, keine Probs mit AA/AF, Treiber nicht so verbuggt

ich hatte bisher nur ATI und es war bisher nie ein bug zu bemerken...
das "günstiger" sollte man auch streichen, keine highendkarte ist günstig


Über die Suchfunktion findest du diese Auflistung auch noch ein paar Mal.

Sprich: wenn du a.) ATI-Fanatiker bist, oder als einziges Leistung zählt und du AA/AF nicht benötigst, dann nimm die XT, ansonsten die GTS.

ich denke beide karten haben genug leistung, sodass man damit crysis locker spielen kann, nurmal als orientierung
 
HD2900XT und GTS sind beides schöne Karten, welche von beiden man sich zulegt, muß jeder selbst wissen! Die GTS ist eine solide Karte, die schon in vielen Spielen und Benches gezeigt hat, was sie kann und die HD2900XT ist brandneu, einige User haben schon gezeigt, welches Potential in der HD2900XT steckt, was man noch durch neue Treiber und Garfikkartentools aus der Karte rausholen kann, wird die Zukunft zeigen, beim Spielen hat man von der Leistung her Spaß mit beiden!
 
also nachdem hier mehr so fanboy einträge waren lass ich jetzt mal fakten für sich sprechen, und außerdem die x2900xt ist fast genauso schnell wie eine 8800gtx was eindeutig für sich spricht nachzulesen hier und hier

Naja bevor man sowas postet sollte man erst durchlesen ;)
Der eine Link ist alt und der zweite sollte durchgelesen werden ;) Unter AA. u. AF kann eine non OC XT nicht annähernd mit einer GTX mithalten.
http://www.computerbase.de/artikel/..._xt/32/#abschnitt_performancerating_qualitaet
 
Also ich hatte auch überleget,welche der beiden Karten ich mir kaufen sollte.
Mich hat es vor einer Woche nun aber doch nach jahrelanger ATI-Abstinenz zu NVIDIA getrieben und ich bin begeistert.Heisst jetzt nicht,das die ATI schlecht ist.Ich bin einfach nur zufrieden mit der GTS/640.

Gruss ROSSI
 
Hi!
Ich wollte mir eigentlich ganz sicher ne AMD CPU holen! Genau so wie ich eigentlich ATI Fan bin ! Aber wenn ich halt mal alles so durchlese was es alles an Berichte gibt ist halt Intel der Zeit genau so wie Nvidia vom W Verbrauch gegenüber der Leistung sehr zurück. Für mich ist der Strom Verbrauch estrem wichtig!! Wenn und wann ist für mich momentan weniger interessant! Bin der erste der ne ATI Karte kauft wenn Sie in oben genannten Kriterien konkurenzfähig sind!
 
Polska
- Kompetenz
- Objektivität
- Fachwissen

VS.

Jano
+ Geiler Typ
+ Einfach Cool
+ Voll der Checker

Ja, ja. Zuviel Spiegel in der Wohnung sind halt nicht gesund.

Aber mal ernsthaft zum Thema:
Ich find's ok, wenn mancher meint, er schwört auf XXX oder YYY, aber man sollte das dann klar benennen. Manche, die sachlich & fachlich für das eine oder andere Produkt 'ne Lanze brechen, und dabei jegliche Parteinahme dementieren, beweisen mit ihrem Gereite auf Prozentzahlen (von denen manche 'ne Null vorm Komma und drei Stellen nach dem Komma haben) geradezu, woher ihr subjektiver Wind weht. Also, entweder man begeistert sich offen für ein Produkt und stellt die Fakten ohne VERKLÄRUNG hinten an, oder es dominieren die Fakten, egal ob die neue SUPER-GPU oder Super-CPU von "LADA" hinter'm Ural gebaut wird.
Somit bleibt festzuhalten, dass sowohl ATI als auch NV immer recht Nahe beieinander waren. Mal war die eine Karte Schneller, mal die ander hitziger, dann wieder eine stromhungriger. Insgesamt war ATI bislang aber etwas solider (ich betone - solider, nicht besser), da vor allem die Bildqualität weit besser war als bei NV. Aber mit dem G80 war NV nicht nur Leistungsmäßig ein ordentlicher Sprung gelungen, vor allem qualitätsmäßig waren sie neue Referenz - und sind es immer noch. Trotz der Verspätung ist es ATI nun nicht gelungen, dass aufzuholen, geschweige zu überflügeln. Das ist einfach FAKT!
Wer nun meint, argumentieren zu müssen, ohne AA & AF sind die Karten gleich auf, der fährt auch 'nen Porsche mit Holzrädern. Wozu eigentlich AA/AF? Ok, wozu eigentlich Auto's, wir haben doch alle keine, oder? Sinn erkannt?
Oder die Meinungen über das geringe OC-Potenzial des G80 sowie der Gleichgültigkeit des hitzigeren ATI-Chips, weil der doch mehr Grad verträgt, sind nicht wirklich schlagkräftige Argumente für den R600. Auch das Gereite auf "Fachtermini" (AAA/TRSAA/etc.) sind doch keine umfassende Qualitätsaussage für ein Produkt, sondern eher unwesentliche Randkosmetik ohne wirkliche Aussagekraft. Aber gerade jene, welche hier alles verniedlichen, schreien in anderen Threads nach Stromsparwundern, Performancemonstern, Qualitätssiegern, etc.
Ja, wat nu.

@ TrOjaner
Muß Tectrex voll beipflichten, beide Artikel bestätigen eigentlich nur die bisher mäßigen Ergebnisse des R600 (z.B. auch hier bei HWL), und die wenigen relativierenden Sätze zum möglichen Eventuell-Potenzial des R600 sind lediglich versöhnlich gestimmte Worte an die jeweiligen Fangemeinden, was auch völlig in Ordnung ist. Schließlich behauptet auch niemand, das der R600 schlechter ist, als alle Karten vor ihm. Er hat halt Mühe, sich deutlich abzusetzen. Das darf man dann aber für den Preis doch schon auch erwarten.

Und mal ganz ehrlich Leute, ne Karte, die sich erst noch über zig Treiberupdates profilieren muß, kann auch von der Hardwareseite trotz der nackten Zahlen (z.B. 512bit-Face etc.) nicht wirklich ein Technologiesprung sein.
Ne, zur Zeit ist es doch etwas einseitig im Grafiksektor.

(PS: Wer mir jetzt aber 'nen NV-Werbevertrag anhängen möchte, dem sei gesagt, meine Hardwaresammlung enthält "sowohl-als-auch" - Bestandteile. Sich markentechnisch zu einseitig zu binden, bringt auf längere Sicht oft Nachteile und Mehrkosten bei Aufrüstung z.B.)
 
Zuletzt bearbeitet:
Wo die Leute immer solchen Quatsch hernehmen die 2900XT verbrät ca. 165Watt unter Last mehr nicht.
Und wen interessiert 16bit , langsam wirds echt lächerlich was einige hier Ablassen.
Klar und wird Heiß :haha: mit 825/925 in Games max. 74Grad
http://www.computerbase.de/artikel/...ti_radeon_hd_2900_xt/34/#abschnitt_temperatur



Zustimm wo der noch mit ein G71 unterwegs ist :lol:
Ja und? Das ist ja wieder typisch unterste Schublade. Ich bin sicher die Autotester haben auch jeden der Wagen, der im TV vorgestellt wird, privat zu Hause in der Garage stehen. :fresse:
Hinzugefügter Post:
Gibt es in Bezug auf deinen Eindruck auch irgendwelche Beweise oder gar eine Begründung für deinen Eindruck ??? Würde mich sehr gerne interessieren, weil ich allgemein nicht so der Freund von unbegründeten Dingen bin :-)

Gruß:angel:
Also....es war mal zu Zeiten des nv35 vs r300...ach was, da kommst Du sicher selber drauf. ;)
 
Zuletzt bearbeitet:
@derMeister Ich hab die Temperaturen bei mir, es gibt halt schankungen je nach belüftung.
Mit Standarttakt erreiche ich 71grad bei 23 Zimmertemp. und org. Kühler.

James Rayn hat aber kein G80 und kein R600 zH zum testen
 
@derMeister Ich hab die Temperaturen bei mir, es gibt halt schankungen je nach belüftung.
Mit Standarttakt erreiche ich 71grad bei 23 Zimmertemp. und org. Kühler.

James Rayn hat aber kein G80 und kein R600 zH zum testen


:bigok:


genau, ich habe 21 zimmertemp idle 65 grad und unter last 73
 
ich würde zur GTS greifen!

ich habe auch eine und habe mit ein bisschen übertakten in vielen bereichen ungefähr die gleiche leistung wie eine 2900XT.

Alelrdings ist das von karte zu karte nochmal unterschiedlich. aber um sich vorzustellen was in der 8800 GTS noch so drinsteckt :)

und die anderen plus bzw. auch minuspunkte der GTS wurden hier ja schon hundertfach aufgezählt ^^
 
Wer momentan ATI kauft nimmt Betatreiber in Kauf.Das ist alles .WEiterhin wird sich in Zukunft zeigen wer besser mit den Softwareschmieden zusammengearbeitet hat.Meiner Meinung nach hat Nvida hier einfach einen Zeitvorteil denn alle DX10 Engines wurden mit NV Karten erstellt.Siehe UE3 z.B die in diversen Titeln jetzt bereits eingesetzt wird.Laut Epic wird die Leistung eher Füllraten begrenzt sein da man es versäumt habe alle neuen Features zu integrieren wie Geometry Shader.Das spricht wieder alles dafür das ATI zwar eine super Karte baut diese aber wegen mieser Programmierung der Hersteller versagt leider.
 
Zuletzt bearbeitet von einem Moderator:
eben nicht
denn ut3 wird auch auf ati grakas getestet; und dass sie mit 2 8800gtxs ausgerüstet sind, heisst nicht das ut3 ned gut auf atis laufen wird
Ich kenne viel games die "auf nvidia grakas entwickelt wurde", aber meistens liefen sie auf ati grakas schneller
für mich ist dieses it ment to be played oder sowas, ne marketing shit
 
Zuletzt bearbeitet:
Mir geht es garnicht um die absoluten High-Frames, nur mich verwundert bei den meisten Benches folgendes und vielleicht hat cod2 recht mit seiner Treiber/Programier Vermutung:

Bei den "Minimum Frames" fällt die 2900XT doch ziemlich Negativ ab und das finde ich sehr komisch. Genauso ist es auch bei meiner 1950Pro. Ich hatte vorher ne Nvidia 7800GS drin und die war nicht schneller aber viele Games "fühlten" sich einfach smoother an.

Dieses und die Lautstärke ist es - die mich wohl wieder in die Arme von Nvidia treiben, leider.
 
naja das stimmt schon das es weniger einbrüche hat, aber ati hat von den grundeinstellungen aus bereits bessere bildqualität
und das 2900xt problem wird (und muss) bald gelöst werden
 
die xt ist jezt schon schneller als die gts in den benschmarks hat die gts gegen die xt keine chance,in einigen games ist die gts noch schneller ist ja auch schon ein halbes jahr auf dem markt.ati wird neue treiber bringen und auch dieses problem aus der welt schaffen.denke schon das gerade auch für die kommenden games wie crysis ein leistungsvorteil der xt zeigen wird.
 
Ich glaub er meint das du immer so ein riesen Drama aus der BQ der R600 machst, sowohl hier als auch in den anderen R600 Threads ist das aufgefallen.

Aber das du mit deiner derzeitigen G71 wirklich sichbar deutlich schlechter hinter der BQ der R580 liegst verschweigst du dann immer.
Da du ja selber besitzer einer G71 bist, kommt schnell der verdacht auf, das du dein Produkt irgendwie verteidigen müsstest, ...
Der Unterschied zwischen R580 und G80 ist da, aber eher sehr gering, den Blur Effekt kann man auch umgehen in dem man wohl einfach nicht diese AA Modi nutzt. Mit Lupe und direktem Vergleichsmonitor befeuert von der anderen Karte sieht man schon was.
Der Unterschied zwischen G71 zum R580 ist aber bei weitem teilweise deutlich sichtbar, auch ohne Lupe und direkten Vergleichsmonitor angetrieben von der anderen Karte.

Übrigens, was willst denn für die GTO haben?
 
Zuletzt bearbeitet:
du machst so ne grosse panik wegen der bildqualität, der ein bisschen schlechter ist als ne g80
Laut 3DCenter ist das nicht der Fall, die meinen das mit dem R600 eine bessere BQ möglich ist?
Naja ich werds morgen selbst sehen und vergleichen können...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh