ATI HD 2900 XT vs. NVidia 8800 GTS

Laut 3DCenter ist das nicht der Fall, die meinen das mit dem R600 eine bessere BQ möglich ist?
Naja ich werds morgen selbst sehen und vergleichen können...

Neja also das AF beim R600 ist schlechter im Vergleich zu dem des G80, da nicht 100% komplett winkelunabhängig. Beim AA streiten sich die Gemüter, die einen mögen den Blur Effekt, die anderen nicht, für mich persönlich sieht das ganze mit dem Blur Effekt irgendwie natürlicher aus, ...
Kann aber auch daran liegen das ich mir vllt vom Optiker mal ne Gucke besorgen sollte, da ich schon seit mehreren Jahren merke, das mit Blick in die Ferne das Bild leicht verschwimmt :fresse:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Neja also das AF beim R600 ist schlechter im Vergleich zu dem des G80, da nicht 100% komplett winkelunabhängig. Beim AA streiten sich die Gemüter, die einen mögen den Blur Effekt, die anderen nicht, für mich persönlich sieht das ganze mit dem Blur Effekt irgendwie natürlicher aus, ...
Kann aber auch daran liegen das ich mir vllt vom Optiker mal ne Gucke besorgen sollte, da ich schon seit mehreren Jahren merke, das mit Blick in die Ferne das Bild leicht verschwimmt :fresse:

Meinte jetzt die Bildschärfe:
Der R600-Chip zeigt das schärfste Bild, wenn A.I. deaktiviert wird. Im Gegensatz zum R580 sind die Unterschiede ebenfalls über einen größeren Bildbereich erkennbar. Insgesamt wirkt das Bild gegenüber dem Vorgänger schärfer und gleichzeitig homogener. "A.I. on" beim R600-Chip ist somit mit dem "A.I. off" beim R580-Chip und "High Quality" beim G80-Chip nahezu identisch. Ein Flimmern war nicht festzustellen, wenngleich die Bildschärfe in Bewegung gegenüber dem G80-Chip zurückstecken muss. Mit deaktiviertem A.I. zeigt der R600-Chip ein noch schärferes Bild als R580 und G80 darstellen können, ohne dabei aber zu flimmern.
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index8.php

@cod2
immer locker bleiben, es gibt immer noch die Ignorier Funktion ;)
 
Zuletzt bearbeitet:
Ich glaub er meint das du immer so ein riesen Drama aus der BQ der R600 machst, sowohl hier als auch in den anderen R600 Threads ist das aufgefallen.

Aber das du mit deiner derzeitigen G71 wirklich sichbar deutlich schlechter hinter der BQ der R580 liegst verschweigst du dann immer.
Da du ja selber besitzer einer G71 bist, kommt schnell der verdacht auf, das du dein Produkt irgendwie verteidigen müsstest, ...
Der Unterschied zwischen R580 und G80 ist da, aber eher sehr gering, den Blur Effekt kann man auch umgehen in dem man wohl einfach nicht diese AA Modi nutzt. Mit Lupe und direktem Vergleichsmonitor befeuert von der anderen Karte sieht man schon was.
Der Unterschied zwischen G71 zum R580 ist aber bei weitem teilweise deutlich sichtbar, auch ohne Lupe und direkten Vergleichsmonitor angetrieben von der anderen Karte.

Übrigens, was willst denn für die GTO haben?

Dieses "Riesendrama" ist berechtigt, da der R600 ATis aktuelle High-End Karte ist, aber bei der BQ einer 7 Monate älteren Gf 8800 unterlegen ist!
Bei Midrange-Karten ist die BQ nicht allzu wichtig, beim High-End zahlt man aber für die maximale BQ entsprechend!
Übrigens verschweige ich nicht dass meine GTO kein gutes Bild liefert, was meinst du warum ich wechsele?

@cod2
Für solche Postings wird man in anderen Foren gesperrt, ich hoffe du wirst hier auch mit Konsequenzen rechnen müssen.

@Thread
Ich denke es wurde alles gesagt, jetzt kommen nur noch Anfeindungen und lächerliche persönliche Beleidigungen. Zeugt sehr von der Qualität der User dieses Forums!

MfG :cool:
 
@tetrex für mich ist dass ne minimale unterschied bei den bildern

@Thread
Ich denke es wurde alles gesagt, jetzt kommen nur noch Anfeindungen und lächerliche persönliche Beleidigungen. Zeugt sehr von der Qualität der User dieses Forums!

MfG

sagt grad der richtige!!
 
Zuletzt bearbeitet:
Dieses "Riesendrama" ist berechtigt, da der R600 ATis aktuelle High-End Karte ist, aber bei der BQ einer 7 Monate älteren Gf 8800 unterlegen ist!

Noch mal extra für dich. Die 7 Monate konnten an der Hardware selbst nichts mehr ändern. Die Karte an sich ist seit Monaten fertig gewesen. Deshalb ist das Argument Quatsch. Einmal ist Nvidia besser, anderes mal ATI. Da jetzt wochenlamng in jedem Posting darauf hinzuweisen ist einfach lächerlich. Denn die Bildqualität des R600 ist nicht unterirdisch, sondern nur nen Tick schlechter als G80. Während du zockst fällt dir das bei dem Niveau eh nicht auf.
 
Da jetzt wochenlamng in jedem Posting darauf hinzuweisen ist einfach lächerlich. Denn die Bildqualität des R600 ist nicht unterirdisch, sondern nur nen Tick schlechter als G80. Während du zockst fällt dir das bei dem Niveau eh nicht auf.

Es ist lächerlich wenn jahrelang über NVIDIAs miese BQ abgelästert wird und bei ATi dies stillschweigend hingenommen wird. Aber steht ja ATi drauf, kann also nicht schlecht sein oder wie?
Natürlich fällt einem das minimal schlechtere AF nicht auf, aber warum sollte man für über 300€ zu einer Graka mit schlechterer BQ greifen, wenn die Konkurrenz mehr bietet?
Dazu kommt der höhere Stromvebrauch und der deutlich lautere Kühler.
Nenne mir einen Vorteil des R600 gegenüber des G80! Nur einen Grund jetzt eine HD 2900 XT einem G80 vorzuziehen!

MfG :cool:
 
Nenne mir einen Vorteil des R600 gegenüber des G80! Nur einen Grund jetzt eine HD 2900 XT einem G80 vorzuziehen!
Naja einen Vorteil kann ich Dir schon mal nennen^^ Spannungsanhebung ohne VMod ;) Du wolltest einen Grund haben^^:d
Ansonsten kann ich schon verstehen, momentan schaut der G80 besser aus, aber schaun ma mal^^

Schau mal, man kann aus einem R600 doch so viel machen, Lüfter drosseln per Bios, OCen mit Spannungsanhebung...der G80 ist zu perfekt, da hat man nichts mehr drann zu machen...auch ein Grund warum ich DFI Boards so mag, das ist wie zocken, immer ein Level weiter^^
 
Zuletzt bearbeitet:

Ja gut, aber vor deinem Fettgedruckten steht ja auch in Bewegung ist die G80 vorn, ... ;) Scheint also nur für Standbilder zu gelten.
Aber sei es drum, ich sehe darin keinen Unterschied. Sowohl in Bewegung als auch im Standbild, ...

Dieses "Riesendrama" ist berechtigt, da der R600 ATis aktuelle High-End Karte ist, aber bei der BQ einer 7 Monate älteren Gf 8800 unterlegen ist!
Bei Midrange-Karten ist die BQ nicht allzu wichtig, beim High-End zahlt man aber für die maximale BQ entsprechend!
Übrigens verschweige ich nicht dass meine GTO kein gutes Bild liefert, was meinst du warum ich wechsele?

Das hat aber nichts mit den 6 Monaten nach G80 release zu tun, die BQ des G80 ist sehr gut, das bezweifelt auch niemand, nur ist ein besseres AF beispielsweise nicht mehr möglich, sprich mehr als Winkelunanhängig geht nicht. Der R600 bekommt das nicht hin, das ist war, aber warum sollte man denn 100% genau sein, wenn es auch mit 98% genauigkeit geht ohne das man sichbare Unterschiede warnimmt.
Dieser AF Test im 3DMarkt ist der schlecht möglichst eintretende Fall und wird so warscheinlich nie inGame eintreten.
Und gerade bei Mittelklasse Karten ist die BQ noch wichtiger, denn dort ist der Preiskampf noch härter und es werden vor allem viel mehr Kunden bedient, ...
Zum AA hab ich ja schon gesagt, das muss man mögen oder halt nicht, wenn nicht dann kann man auch normales AA nutzen also kein wirklicher Unterschied.

Und doch, du verschweigst es, du hast noch nirgendwo gesagt das deine NV Karte schlecht ist, was BQ betrifft, es heist immer, so groß ist der Unterschied nicht, merkt man gar nicht usw.
Wie gesagt ich hab beides gehabt, man merkt keinen Unterschied zwischen R600 und G80, wenn man nicht direkt zwei Vergleichmonitore mit dem gleichen Test gleichzeitig am laufen hat.

Wenn Dir das so wichtig war, warum hattest Dir keine X19x0XT gekauft?

Weil nicht NV drauf steht und die Karten nicht grün sind ;)
Sorry musste sein
 
Leute macht euch mal nicht feucht hier wegen so ein paar BQ Sachen die eh kein mensch sehen kann wenn er im CSS 2 Terrors verfolgt, oder bei C&C im Gefecht ist. Ihr spielt ja nicht um alle 5 Minuten stehen zu bleiben und zu sagen: "Ey da hinten, ganz inner Ecke - wenn ich die Augen zusammenkneife: Ich schwör das ist schlechtes AF!!"

oder?
 
Es ist lächerlich wenn jahrelang über NVIDIAs miese BQ abgelästert wird und bei ATi dies stillschweigend hingenommen wird. Aber steht ja ATi drauf, kann also nicht schlecht sein oder wie?
Natürlich fällt einem das minimal schlechtere AF nicht auf, aber warum sollte man für über 300€ zu einer Graka mit schlechterer BQ greifen, wenn die Konkurrenz mehr bietet?
Dazu kommt der höhere Stromvebrauch und der deutlich lautere Kühler.
Nenne mir einen Vorteil des R600 gegenüber des G80! Nur einen Grund jetzt eine HD 2900 XT einem G80 vorzuziehen!

MfG :cool:

Nein es wird überall gesagt, auch von Leuten die ne R600 oder was auch immer Karte haben, das die BQ schlechter als bei G80 ist, ...
Nur leider sieht man den Unterschied nicht, was man hingegen bei G71 und R580 schon getan hat, ...

Ein Grund kann ich dir nennen, sie ist in der Masse der Games schneller als ihr direkter Konkurent 8800GTS.
Lautstärke ist Ansichtssache, ich finde meine alte X1950Pro lauter als die HD2900XT, ... Stromverbrauch ist auch so ne Sache, wer zockt schon bitte 24h täglich mehrere Jahre lang durch. Niemand, ...
Der Idle Verbrauch scheint zwar auch höher zu sein, aber was solls, wer Leistung will muss halt auch damit leben.
Schließlich kauft man auch nen Porsche wenn man 300 fahren will und nicht nen A6 der vllt nur 280 schafft und weniger verbraucht, ...

Das ganze Stromverbrauchs gehatsche ist alles nur schlechtgerede, der extreme idle Verbrauch von der G80 hat am Anfang auch alle aufgeregt, jetzt wird er akzeptiert, also warum darf dann ne ATI Karte nicht auch das haben.
Und es ist ja bekannt das ATI Karten schon immer etwas mehr verbraucht haben.
 
Kann es sein das dieser Thread völlig fürn *Popo* ist? Das artet doch eh aus ohne irgendeinen Sinn??!! :fresse:
 
@cod2: Lass doch mal diese alten Karten aus deinen Postings, die interessieren hier keine Sau und haben auch nichts mit diesem Thema am Hut.
Was damals war ist vorbei PUNKT
 
Leute macht euch mal nicht feucht hier wegen so ein paar BQ Sachen die eh kein mensch sehen kann wenn er im CSS 2 Terrors verfolgt, oder bei C&C im Gefecht ist. Ihr spielt ja nicht um alle 5 Minuten stehen zu bleiben und zu sagen: "Ey da hinten, ganz inner Ecke - wenn ich die Augen zusammenkneife: Ich schwör das ist schlechtes AF!!"

oder?

Das ist genau der Punkt, der Unterschied ist nicht sichtbar ohne direkten Vergleich. Beim normalen zocken fällt das nicht auf, ... also warum soll man unnötig Rechenleistung verschenken wenns auch ohne geht.
Die Hersteller optimieren sowieso alles weg, was nicht angebunden ist, da fällt ne optimierung im Treiber teilweise mehr auf, als das minimal schlechtere AF der R600.
 
@fdsonne
Dukee hat gesagt die bildquali der 2900xt sei in 2d besser und bei 3d anwendungen gleich mit ne g80
 
tja dass stimmt
ati wird es schwierig haben, aber sie haben ja selber gesagt der 2900xt soll sich mit dem 8800gtx messe
 
Es ist lächerlich wenn jahrelang über NVIDIAs miese BQ abgelästert wird und bei ATi dies stillschweigend hingenommen wird.

Ja, weil die BQ von Nvidia damals wirklich unter aller Sau war. Die des R600 ist aber nur unwesentlich schlechter als vom G80. Deshalb muß man da nicht drauf herumreiten. Wenn dir der G80 gefällt ist das doch schön. Aber bitte verschone doch andere mit sich ständig wiederholenden Posts. Man könnte meinen du hast hier ne Mission.
 
Ati is momentan genau so am Arsch wie AMD...ob das an der Fusion liegt?^^ Jedenfalls müssen se sich in beiden Segmenten verdammt zusammenreißen, um nich immer mehr ins Hintertreffen zu gelangen...denn die konkurrenz schläft bestimmt nich und wartet nur ab. Was ATI sich zur zeit leistet, is unterirdisch...leider, denn eigentlich hab ich die Roten lieber gemocht als die Grünen...genau so wie bei den CPUs, da hab ich die P4s auch verflucht und jetz musst ich zu Intel gehen, weil AMD nich ausm Arsch kommt...

Zum Thema BQ: Leute, die da sitzen und sich die Augen reiben, weil die 7er Reihe von nVidia ja sooo schlecht war, denen is nich mehr zu helfen. Der Unterschied war auch nur marginal und für Lupenträger, keinen den ich kenne hat das interessiert. Und es wird so getan, als ob man von dem Bild sofort Augenspasti bekommen würde. Schwachsinn, genau so wie jetz die BQ von der neuen ATi mit der G80 zu vergleichen. Bin doch keine Prinzessin auffa Erbse, die wegen jedem Kleinmist zu weinen anfängt...manche Leute haben einfach zu wenig zu tun glaub ich. Wenn einer meint, die HD2900Xt sei besser als die G80, dann soll er sie sich kaufen und mit dem Kühler abheben, mir wär der entschieden zu nervig.
 
Zuletzt bearbeitet:
Es ist lächerlich wenn jahrelang über NVIDIAs miese BQ abgelästert wird und bei ATi dies stillschweigend hingenommen wird. Aber steht ja ATi drauf, kann also nicht schlecht sein oder wie?
Natürlich fällt einem das minimal schlechtere AF nicht auf, aber warum sollte man für über 300€ zu einer Graka mit schlechterer BQ greifen, wenn die Konkurrenz mehr bietet?
Dazu kommt der höhere Stromvebrauch und der deutlich lautere Kühler.
Nenne mir einen Vorteil des R600 gegenüber des G80! Nur einen Grund jetzt eine HD 2900 XT einem G80 vorzuziehen!

MfG :cool:

Beim G71 hat man aber die schlechtere Bildquali im Game gesehen, beim R600 nicht.
Man du spielst echt den NV-Rächer in Person und gehst den Leuten in jedem R600-Thread auf den Piss.
 
Beim G71 hat man aber die schlechtere Bildquali im Game gesehen, beim R600 nicht.
Man du spielst echt den NV-Rächer in Person und gehst den Leuten in jedem R600-Thread auf den Piss.

Wenn man es sehen will, sieht man es auch hier! Ich sehe auch pinke Elefanten, wenn ich es will! Hat abr nix damit zu tun, dass es jedem Otto Normal sofort die Augen verdirbt, weil eine Seite ne "schlechtere" Bildqualität aufweist...und ich geb ihm auch Recht, wenn es darum geht, dass ich mir ne 300€-Karte kaufe. Da nehm ich halt die, die 100% bekommt und nich die mit 99,3628%, wenn se gleich teuer ist...und genau so kann man sagen, dass der Geschwindigkeitsunterschied in Games so verschwindend klein is, dass das auch keiner Sau auffällt. Für mich zählen bei dem Vergleich eher Lautstärke, Hitzeentwicklung, Stromverbrauch und da liegt nVidia mit der GTS nunmal Vorne und das spürbar, Klappe zu, Affe tot!

Dass das hier aber kein reiner R600-Thread is, sollte auch dir klar sein dem Titel nach zu urteilen oda? :-)
 
Zuletzt bearbeitet:
teddy nutz
hitzeentwicklung ist nun bei der 2900xt nicht schlecht frag doch mal dukee, er hat gleiche temps wie eine 8800gts unter wakü
 
Zuletzt bearbeitet:
leute geht doch mal von einer Person aus, die den Rechner aufmacht, die graka reinsteckt und treiber installiert. Welche Karte würdet ihr dann empfehlen ?

Ihr geht hier immer nur von euch aus, die leute hier haben meistens nie eine Karte länger wie 6 Monate drinne, noch dazu sind sie sehr bewandert in einstellungstechnischen sachen (Tools usw)

Jedoch geht echt mal von jemandem aus, der einfach nur spielen will ohne groß rumzudoktorn.

Auch wenn die 2900XT etwas schneller ist als die 88GTS denke ich wird die letztere hier die bessere Alternative sein.
 
das stimm schon die treiber sind scheisse, aber sie werden sicherlich imer besser, und am anfang wenn der g80 rauskamm, gab es auch treiberprobleme
 
Ja da der G80 es *mittlerweile* mit seinem Treibern , beim normal User zur Sorgenfreiheit geschafft hat. Im Gegensatz zur ATI. Ich hätte als unwissender keine Lust mich mit den Treiber Problem zu Ärgern die auch solchen Leuten auffallen werden.
 
Zuletzt bearbeitet:
Okay, ich kann natürlich nur nach dem gehen, was bisher berichtet wurde, da ich noch nie ne X2900XT mein Eigen genannt hab...aber n Kumpel hat die halt und ich durfte sie schon live erleben und da war die Chipunterseite wesentlich heißer als bei meiner GTS, der Lüfter weitaus lauter, (zumal meiner nie auf Volllast geht), und Wattverbrauch wurde ja auch schon oft genug bemängelt...daher is die Karte für mich keine wirkliche Konkurrenz, zumal meine GTS ja noch nichmal die schnellste nVidia is...
 
Dieses "Riesendrama" ist berechtigt, da der R600 ATis aktuelle High-End Karte ist, aber bei der BQ einer 7 Monate älteren Gf 8800 unterlegen ist!

was war denn damals mit dem neuen G71 welcher dem R520 (X1800XT) in sachen BQ meilenweit hinterherhinkte?) und das Monate später :shot:

ach und wenn wir mal im gleichen lager bleiben wollen kein problem...was ist mit dem G71 welcher jahre nach einem NV25 und NV30 kam und diesen in sachen AF Filterqualität um Lichtjahre hinterherhinkte? Oh mein Gott da fällt mir auf du hast dir ja eine G71 basierete Grafikkarte zugelegt...dessen AF Qualität schon von meiner GeFrosch4 im Jahr 2002 um Welten übertroffen wurde :shot:

Übrigens verschweige ich nicht dass meine GTO kein gutes Bild liefert, was meinst du warum ich wechsele?

Weil sie einfach bei neuen Dingen grotten lahm ist? Fast so wie der NV30 (FX5800Ultra) ....als er rauskam durchaus noch konkurenzfähig...ein Jahr später wurde er sogar von ATIs Mainstream in neueren Spielen (9600XT) versägt. Genau jetzt mit deiner 7900GTO/GTX die ist in neuen Sachen auch nur noch so schnell wie ne X1950Pro :xmas:
oft nichtmal das

@cod2
Für solche Postings wird man in anderen Foren gesperrt, ich hoffe du wirst hier auch mit Konsequenzen rechnen müssen.

So wie du gerade wieder im 3dcenter forum? :bigok:
 
Okay, ich kann natürlich nur nach dem gehen, was bisher berichtet wurde, da ich noch nie ne X2900XT mein Eigen genannt hab...aber n Kumpel hat die halt und ich durfte sie schon live erleben und da war die Chipunterseite wesentlich heißer als bei meiner GTS, der Lüfter weitaus lauter, (zumal meiner nie auf Volllast geht), und Wattverbrauch wurde ja auch schon oft genug bemängelt...daher is die Karte für mich keine wirkliche Konkurrenz, zumal meine GTS ja noch nichmal die schnellste nVidia is...

Also first off all mein lieber teddy sieht man den unterschied auf dem g71 wirklich! Kanten und Texturflimmern auch mit 16AF tun bei manchen Games schon wirklich in meinen Augen weh. (neustes Beispiel Spiderman 3). Das ist wirklich ein Unterschied, den man sehen kann!

2. wurden Ati Karten eigentlich immer schon heißer. Ich weiß nicht wieviel meine 9800pro damals hatte, die hatte nämlich keinen Temp Sensor, aber anfassen konnte ich die nicht. Es war trotzdem in der Generation eine hervorragende Karte!

3. Watt verbrauch kann mit nem per Treiber korrigierten idle vcore nochmal drastisch gesenkt werden. Besitzer schreiben hier doch auch schon, dass sie einfach durch runtertakten 20 watt im idle sparen!

4. Wo ist deine Ambition hier rein zu schreiben? willst du potenzielle käufer abwimmeln? Wenn dir die karte nicht gefällt, aus angegeben gründen kaufst du sie eben nicht. Hier reinzuplatzen und teilweise falsche sachen zu posten ist doch nicht der richtige weg.
 
Wenn Dir das so wichtig war, warum hattest Dir keine X19x0XT gekauft?

Weil das ja keine NVidia Karte ist und dann ist das mit der besseren BQ nicht relevant :d
Hinzugefügter Post:
Naja einen Vorteil kann ich Dir schon mal nennen^^ Spannungsanhebung ohne VMod ;) Du wolltest einen Grund haben^^:d

Nicht zu vergessen Spannungsabsenkung ohne hardware vmod (fingerzeig auf idleverbrauch)
:bigok:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh