ATI HD 4870 RV770XT "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 5

Status
Für weitere Antworten geschlossen.
naja übern Treiber, aber ehrlich gesagt, habe ich da auch ned das Gefühl, dass es an ist :hmm:

ich finds eh blöd, dass neue Games nicht einfach alle AA-Modi integriert haben, das würde das Benchen deutlich vereinfachen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei den restlichen Spielen funktionieren aber die AA Modi? Welche Spiele testest du denn sonst noch?
 
Ich hab eine neuere Betaversion von Everest laufen
und die zeigt die gleiche Temperatur wie GPU-Z an,
die ältere Final ist glaub ich noch nicht an die 4800er angepasst.

Das bestätigt meine Theorie ja...:bigok:

@All
@GodZilla

Wie lasse ich denn GPU-Z auch beim Zocken im Hintergrund laufen sodass ich immer die Temperaturen im Auge behalten kann, so wie es im Idle auch schon der Fall ist.
ODER mit dem Programm Wizard 2008, auch nur im Idle. Last keine Anzeige mehr!

Naja du öffnest GPU-Z, gehst aus "Sensors" und klickst da "Continue refreshing this screen while GPU-Z is in the background". ;)
 
Hallo,

schaut euch mal das hier an. meine 4870 unter wakü 10 minuten furmark. Temps GPU-z. was sagt ihr.


www.ct-dimi.com/Grafik4.jpg

und nun schaut euch auch everest unten an kann man echt nicht übersehen 117°C Wer lügt GPU-z oder Everest?
 
naja übern Treiber, aber ehrlich gesagt, habe ich da auch ned das Gefühl, dass es an ist :hmm:

ich finds eh blöd, dass neue Games nicht einfach alle AA-Modi integriert haben, das würde das Benchen deutlich vereinfachen.

Warum nicht einfach 4xMSAA und 8xMSAA nehmen :hmm: alles andere kann man nicht vergleichen
 
Bei den restlichen Spielen funktionieren aber die AA Modi? Welche Spiele testest du denn sonst noch?

Cod4
Crysis (ohne AA)
ET - QW
HL2 - EP1 (hab EP2 ned)
Prey
UT3 (erstaunlicherweise gehts auch bei ATI)
Race Driver Grid (Verdacht auf nicht funktionierendes 16xAA)
Neverwinter Nights 2
Oblibion mit Qarl 3.0
Company of Heroes

Das sind die allgemeinen Gamebenches. Mit der HD4870 und 280GTX habe ich vor noch ein paar mehr aufzunehmen, da ich mich mit den beiden Karten etwas mehr beschäftigen werde.

@Jake Dunn
weil ich festgestellt habe, dass die neuen Karten in 16xAA durchaus Sinn machen, weil sie ordentlich Leistung bringen.

Ein Grund dafür wäre ein Besitzer eines 22" TFTs, der möglichst viel Eye-Candy will und da macht 16xAA eben Sinn. Außerdem gibt es glaub 1-2 Fälle, in denen eine HD4850 ohne OC in 16xAA schneller als ne 260GTX OCed ist, also interessant ist es allemal :)
 
Zuletzt bearbeitet:
für den Direktvergleich HD4870 vs. 280GTX plane ich eventl. noch Bioshock, The Witcher und Mass Effect aufzunehmen. Leider habe ich Age of Conan nicht :(
 
mal ne Frage:
Ich benche ja grad ne HD4850 und zuvor hatte ich ne 260GTX gebencht (HD4870+28GTX kommen noch). Jedenfalls gibt es unter den 15 Games einige, bei denen ich bei der ATI zwar 8xAA bzw. 16xAA im Treiber aktivieren kann, aber im direkten Vergleich zu 4xAA scheint es nicht aktiv zu sein (auch im Vergleich zur NV).
Der Override scheint leider nicht so gut wie beim nHancer zu funktionieren und die FPS bleiben auch identisch (was dann doch unrealistisch, besonders von 8xAA Box zu 16xAA Wide-Tent).

Wie dem auch sei, am Ende möchte ich aber Einzelergebnisse in einer Gesamtwertung einfließen lassen (Performancerating), doch wie soll ich dann sowas bei den ATIs bewerten? Ich bin grad noch unschlüssig, ob ich dann einfach auch die Werte der NVs nicht werte (fairer), oder ATI in dem Fall mit 0% Spielbarkeit bestrafe, da es in meinen Augen schon ein Minuspunkt ist, wenn ich mit ner HD4870 nicht in jedem Spiel 16xAA nutzen kann :hmm:.

Was meint ihr? Bitte objektiv sein, bzw. falls möglich eventl. gar Tipps für eine mögliche Aktivierung der Modi nennen, das hier sind die Problemfälle:

Devil May Cry 4 -> kein 16xAA, dazu nimmt der Speed mit AA zu?!
Lost Plant --> kein AA möglich mit Hotfix 8.6
CoJ DX10 --> kein 8xAA+16xAA, wobei NV hier auch ned, also ok
Gothic 3 --> 8xAA+16xAA identisch mit 4xAA und teils schneller :hmm:
Race Driver Grid --> kein 16xAA, die FPS nehmen bei Treibersetting 16xAA zu :fresse:
World in Conflict --> kein 8xAA+16xAA

Ich poste hier, weil die HD4870 als Nächstes gebencht wird und ich nen möglichst fairen und guten Vergleich will.

Du kannst mit einer Single 4850 im CCC 16xAA einstellen? 16xAA war bisher immer nur Crossfire vorbehalten!?
 
Du kannst mit einer Single 4850 im CCC 16xAA einstellen? 16xAA war bisher immer nur Crossfire vorbehalten!?

ich konnte das sogar mit ner HD3870, man muss doch bei ATI den Modi einstellen von Box auf Wide-Tent oder? Dann steht da 16 Samples.

Das ist kein echtes 16xMSAA, bei NV aber ebenso ned, ich kürzer nur den Namen ab. Ist ne Mischung aus 8xMSAA und zusätzlichen Samples, bei NV heißt es CSAA, also etwas hochwertiger als 8xMSAA allein.
Leider kann man ja reines 16xMSAA nicht einschalten, das wäre bei manchen Games interessant zu sehen :(

@TheRealPredator
kein Problem habe 25Mbit, mein Benchordner ist bereits 16GB groß, dank zig gesaugter Demos und Patches :)

Ich habe nur das Problem, dass vermutlich meine CPU etwas limitiert (Q66@3Ghz). Aber dafür habe ich den Treiber höchste Settings und standardmäßig immer TMSAA.
 
Zuletzt bearbeitet:
@Jake Dunn
weil ich festgestellt habe, dass die neuen Karten in 16xAA durchaus Sinn machen, weil sie ordentlich Leistung bringen.

Die Modi ausserhalb von 4 und 8xMSAA sind Optisch und Performancemässig in keiner weise Vergleichbar, da wird einer Massiv bevorzugt und der andere evt. extrem Geschwächt was ein verzerrtes Bild abliefert.
 
Kann mir keiner helfen?

Die Temps sind sowas von im Rahmen, die sind STINKnormal....deshalb hat sicher keiner die Notwendigkeit gesehen, darauf zu antworten. :d :p

Das ist so wie diese "Ich habe OMFGl33tzigmillionen Punkte im Schwanzmark, ist das so ok *angeb angeb*??? Bitte helft mir (mein Schwanz ist zu kurz!!!)". :xmas: :heuldoch:
 
ich konnte das sogar mit ner HD3870, man muss doch bei ATI den Modi einstellen von Box auf Wide-Tent oder? Dann steht da 16 Samples.

Das ist kein echtes 16xMSAA, bei NV aber ebenso ned, ich kürzer nur den Namen ab. Ist ne Mischung aus 8xMSAA und zusätzlichen Samples, bei NV heißt es CSAA, also etwas hochwertiger als 8xMSAA allein.
Leider kann man ja reines 16xMSAA nicht einschalten, das wäre bei manchen Games interessant zu sehen :(

Ach du redest von den CFAA Modi und speziell von der Tent-Filterung (Narrow-Tent und Wide-Tent).

Diese beiden Modi würde ich dir aber nicht empfehlen. Da leidet die Bildqualität, weil sie blurren.

Ich persönlich verwende nur die Box-Filterung oder die Edge-Detect-Filterung.

Zu ED-AA:

ED-AA mit 2xAA greift nicht. Weglassen!
ED-AA mit 4xAA geht. Das ergibt 12xED-AA.
ED-AA mit 8xAA geht. Das ergibt 24xED-AA.

ED-AA mit 16xAA kannst du nicht auswählen. Ist aber kein Beinbruch. Geht bei mir auch nicht. Das ist nicht implementiert!

24xED-AA ist natürlich das beste CFAA. Ich nehm nur 24xED-AA. Eignet sich auch gut für deine Tests, da z. B. laut HardOCP (brandneuer Artikel von dieser Woche) 24xED-AA von der Bildqualität her gut mit Nvidas 16xQ CSAA zu vergleichen wäre. HardOCP war regelrecht begeistert von der 24xED-AA Bildqualität. Meinereiner übrigens auch (hehe).

Du könntest also in deinen Tests Nvidias 16xQ CSAA mit ATIs 24xED-AA vergleichen.

Ansonsten machst du das schon richtig bzw. genauso wie ich. Wenn in einem Game kein Unterschied zwischen 4xAA und 8xAA feststellbar ist, weder von den fps her noch von der Bildqualität, dann greift meiner Meinung nach 8xAA nicht.

Hinzukommt, dass bei einigen Spielen nur in-game AA Sinn macht. Typisches Beispiel: Crysis. Wer für Crysis AA im CCC einstellt, versaut Crysis.

Hinzukommt, dass bei einigen Spielen AA weder übers CCC noch in-game einstellbar ist, sondern nur über eine .cfg Datei und dass AA auf 4xAA beschränkt ist. Typisches Beispiel: Assassin's Creed. Dort kann über die assassin.cfg Datei AA bis auf maximal 4xAA eingestellt werden.

Für GRID würde ich dir das in-game AA empfehlen und zwar nur bis maximal 8xMSAA. Auch hier gilt: AA nicht übers CCC einstellen.

Das gilt auch für Call of Juarez DX10: nur in-game AA auswählen und zwar das 4xMSAA.

Ergänzungen:

- Gothic3: AA für Gothic3 war nur per Exe-Renaming in ut3.exe möglich. Momentan, weder mit Cat 8.6 noch mit Cat 8.7, funktioniert aber selbst diese Umbenennung nicht. Momentan ist kein AA für Gothic3 möglich. Außerdem ist Gothic3 für mich momentan unspielbar, da übelstes Clipping auftritt. Gothic3 würde ich daher weglassen.
- Lost Planet: Die Demo davon hab ich schon lange nicht mehr getestet. Aber früher ging bei mir AA bis 4xAA.
- Devil May Cry 4: Da verwende ich nur das in-game AA und zwar 8xMSAA.
 
Zuletzt bearbeitet:
Ja schlaumeyer ist das so von normal das everest sagt GPU VRM ist 117°C lustiger vogel!!!
 
Ach du redest von den CFAA Modi und speziell von der Tent-Filterung (Narrow-Tent und Wide-Tent).

Diese beiden Modi würde ich dir aber nicht empfehlen. Da leidet die Bildqualität, weil sie blurren.

Ich persönlich verwende nur die Box-Filterung oder die Edge-Detect-Filterung.

Zu ED-AA:

ED-AA mit 2xAA greift nicht. Weglassen!
ED-AA mit 4xAA geht. Das ergibt 12xED-AA.
ED-AA mit 8xAA geht. Das ergibt 24xED-AA.

ED-AA mit 16xAA kannst du nicht auswählen. Ist aber kein Beinbruch. Geht bei mir auch nicht. Das ist nicht implementiert!

24xED-AA ist natürlich das beste CFAA. Ich nehm nur 24xED-AA. Eignet sich auch gut für deine Tests, da z. B. laut HardOCP (brandneuer Artikel von dieser Woche) 24xED-AA von der Bildqualität her gut mit Nvidas 16xQ CSAA zu vergleichen wäre. HardOCP war regelrecht begeistert von der 24xED-AA Bildqualität. Meinereiner übrigens auch (hehe).

Du könntest also in deinen Tests Nvidias 16xQ CSAA mit ATIs 24xED-AA vergleichen.

Ansonsten machst du das schon richtig bzw. genauso wie ich. Wenn in einem Game kein Unterschied zwischen 4xAA und 8xAA feststellbar ist, weder von den fps her noch von der Bildqualität, dann greift meiner Meinung nach 8xAA nicht.

Hinzukommt, dass bei einigen Spielen nur in-game AA Sinn macht. Typisches Beispiel: Crysis. Wer für Crysis AA im CCC einstellt, versaut Crysis.

Hinzukommt, dass bei einigen Spielen AA weder übers CCC noch in-game einstellbar ist, sondern nur über eine .cfg Datei und dass AA auf 4xAA beschränkt ist. Typisches Beispiel: Assassin's Creed. Dort kann über die assassin.cfg Datei AA bis auf maximal 4xAA eingestellt werden.

Für GRID würde ich dir das in-game AA empfehlen und zwar nur bis maximal 8xMSAA. Auch hier gilt: AA nicht übers CCC einstellen.

Das gilt auch für Call of Juarez DX10: nur in-game AA auswählen und zwar das 4xMSAA.

Ergänzungen:

- Gothic3: AA für Gothic3 war nur per Exe-Renaming in ut3.exe möglich. Momentan, weder mit Cat 8.6 noch mit Cat 8.7, funktioniert aber selbst diese Umbenennung nicht. Momentan ist kein AA für Gothic3 möglich. Außerdem ist Gothic3 für mich momentan unspielbar, da übelstes Clipping auftritt. Gothic3 würde ich daher weglassen.
- Lost Planet: Die Demo davon hab ich schon lange nicht mehr getestet. Aber früher ging bei mir AA bis 4xAA.
- Devil May Cry 4: Da verwende ich nur das in-game AA und zwar 8xMSAA.

super DANKE!

Kein Wunder, dass mir das 16xWTAA (Wide-Tent) nicht so gut gefiel, wie das 16xQA von NV. Da ist es dann auch unfair die beiden zu vergleichen, also werde ich bei ATI mal 24xEDAA nach benchen. Kommt zwar für die HD3870 zu spät, aber mit der würde es eh keinen Sinn machen.

btw. Gothic 3 AA geht, wenn man es in Oblivion.exe umbenennt, aber Clipping-Fehler habe ich mit der HD4850 auch festgestellt. Mit der HD3870 jedoch gab es sie komischerweise nicht :hmm:.

Ich finds nur schade, dass es so schwierig ist, ich meine wer kauft sich bitte ne HD4870 oder gar ein CF und zockt dann ohne AA? :stupid:
Bei NV hatte ich da keine Probleme bis auf CoJ gabs in allen Games 16xQA, wann kommt ein nHancer für ATI? Wird es sowas überhaupt mal geben? :hmm:

PS:
Ich habe kein CF, aber ED ist auch anwählbar oder was meinst du mit CFAA? :hmm:

So, dann mache ich so, dass ich alle Karten bis auf HD4870 und 280GTX nur bis 8xMSAA vergleiche und die letztgenannten dann 24xEDAA vs. 16xQA antreten lasse :drool: (natürlich auch im OC :teufel: )
 
Zuletzt bearbeitet:
für den Direktvergleich HD4870 vs. 280GTX plane ich eventl. noch Bioshock, The Witcher und Mass Effect aufzunehmen. Leider habe ich Age of Conan nicht :(

Bioshock: In Bioshock DX10 geht kein AA. In Bioshock DX9 dagegen sehr wohl. Häng dazu in der Befehlszeile den Parameter -dx9 an.

The Witcher hab ich mit bereits mit 24xED-AA getestet.

Mass Effect: da geht AA, selbst mit CF.

Age of Conan: hab ich auch nicht.

Wie wärs mit Oblivion? Da gäbs ein paar sehr fordernde Stellen, z. B. das Zeltlager bei Kvatch.
 
Oblivion habe ich im Programm und dazu ne recht fordernde Stelle vor ner Burg mit großer Weitsicht. Dazu noch den Qarl Texturmod.

Da ruckelts auch auf ner 260GTX mit entsprechend Eye-Candy :d

Aber richtig krass ist NWN2, das ist ein RAM-Fresser schlechthin, selbst die 88GTX ging da in 1920x1200 mit 8xAA auf 10FPS runter und die 260GTX auf 14FPS. 512MB Karten wie 88GTS, HD3870 und HD4850 gurken da mit 2-5FPS rum :eek:

Mich interessieren aber auch OC-Werte. Die 260GTX ist da extrem, bin gespannt wie gut die HD4870 zulegen kann. Hoffe nur es wird keine Krücke sein, bei der HD4850 ist bei mir bei 675/1125 Schluss :wall:.

Was sind so die gängigen OC-Werte der HD4870? Im OC-Thread gibt es leider keine Liste :(.
 
Zuletzt bearbeitet:
3dMark Vantage will bei mir nicht starten wenn ich run benchmark starte kommt die meldung:"The minimum resolution required is not supported""

Wat soll das denn ? Egal welche Auflösung ich unter Optionen auswähle.

Wenn du nicht min. 1280x1024 fahrn kannst mit deinem Monitor, geht nichtmal der P-Benchmark ;)

Ich kann den X-Benchmark auch nicht machen, da man 1920x1200 brauch ^^
 
Bioshock: In Bioshock DX10 geht kein AA. In Bioshock DX9 dagegen sehr wohl. Häng dazu in der Befehlszeile den Parameter -dx9 an.

The Witcher hab ich mit bereits mit 24xED-AA getestet.

Mass Effect: da geht AA, selbst mit CF.

Age of Conan: hab ich auch nicht.

Wie wärs mit Oblivion? Da gäbs ein paar sehr fordernde Stellen, z. B. das Zeltlager bei Kvatch.

wie siehts mit Stalker aus? Habe gehört, dass es ne Mod gibt, die fordernd sein soll. Frage nur, weil ich das Game auch habe. Hatte es mir nur leider gekauft, nachdem ich mit dem Benchen anfing :(
 
super DANKE!

Kein Wunder, dass mir das 16xWTAA (Wide-Tent) nicht so gut gefiel, wie das 16xQA von NV. Da ist es dann auch unfair die beiden zu vergleichen, also werde ich bei ATI mal 24xEDAA nach benchen. Kommt zwar für die HD3870 zu spät, aber mit der würde es eh keinen Sinn machen.

btw. Gothic 3 AA geht, wenn man es in Oblivion.exe umbenennt, aber Clipping-Fehler habe ich mit der HD4850 auch festgestellt. Mit der HD3870 jedoch gab es sie komischerweise nicht :hmm:.

Ich finds nur schade, dass es so schwierig ist, ich meine wer kauft sich bitte ne HD4870 oder gar ein CF und zockt dann ohne AA? :stupid:
Bei NV hatte ich da keine Probleme bis auf CoJ gabs in allen Games 16xQA, wann kommt ein nHancer für ATI? Wird es sowas überhaupt mal geben? :hmm:

PS:
Ich habe kein CF, aber ED ist auch anwählbar oder was meinst du mit CFAA? :hmm:

So, dann mache ich so, dass ich alle Karten bis auf HD4870 und 280GTX nur bis 8xMSAA vergleiche und die letztgenannten dann 24xEDAA vs. 16xQA antreten lasse :drool: (natürlich auch im OC :teufel: )

Bei mir funktioniert momentan in Gothic3 auch eine Umbenennung in oblivion.exe nicht.

CFAA steht für Custom Filtering AA. Narrow-tent, Wide-tent und Edge-detect gehören zu den CFAA Modi.

So wie ich ATI kenne, wird es einen nHancer für ATI nie geben. Ist meiner Meinung nach aber kein Beinbruch. Ich hab die letzten Jahre dank CF fast alle Games in 1920x1200 mit viiiel AA gespielt. Mit Ausnahme der Games, wo von den Devs kein AA angeboten wurde. Solche Games sind aber die Ausnahme. Und sind wir doch mal ehrlich. Wenn ein Game ohne AA rauskommt, dann geht es weder für Nvidia noch für ATI. Wenn dann 3 Jahre später, so wie für Gothic3, ein Hack rauskommt, dann spiel ich es doch längst nicht mehr. Außerdem sind diese Hacks meistens mit einem Haken versehen. Irgendwas läuft dann nicht so wie es sein soll. Beispiel Bioshock. Dort leiden doch die Schatten unter dem Hack.

Da du vom 16xQ AA für Call of Juarez schwärmst, ich spiel grundsätzlich in 1920x1200. CoJ DX10 in 1920x1200 ist erst jetzt mit CF 4870 flüssig mit 4xAA spielbar! Dasselbe gilt für Nvidias Karten. Was will ich da mit 16xAA?
 
ne in CoJ geht auch 16xQA ned und dieser Modus ist nun auch erst mit 260GTX/280GTX und HD4870 interessant geworden bei den Singlekarten.

hmm komisch, aber bei mir gibt es bei Gothic 3 nen FPS-Verlust und die üblichen Kanten an den Armen des Chars sind wie bei NV etwas weniger :hmm:. Nur zu 8xAA gibt es dann keinen Unterschied, also verbuggt scheint es schon zu sein.
 
wie siehts mit Stalker aus? Habe gehört, dass es ne Mod gibt, die fordernd sein soll. Frage nur, weil ich das Game auch habe. Hatte es mir nur leider gekauft, nachdem ich mit dem Benchen anfing :(

Ich hab STALKER momentan nicht auf der Festplatte. Auch ohne Mod gibt es da eine gute Stelle zum Vergleichen, die einigermaßen fordernd ist. Ziemlich am Anfang des Spiels, wenn du aus dem Bunker rauskommst. Also da waren die Frames bei mir in 1920x1200 früher nicht so toll.
Hinzugefügter Post:
ne in CoJ geht auch 16xQA ned und dieser Modus ist nun auch erst mit 260GTX/280GTX und HD4870 interessant geworden bei den Singlekarten.

hmm komisch, aber bei mir gibt es bei Gothic 3 nen FPS-Verlust und die üblichen Kanten an den Armen des Chars sind wie bei NV etwas weniger :hmm:. Nur zu 8xAA gibt es dann keinen Unterschied, also verbuggt scheint es schon zu sein.

Sag ich doch. Lass doch diesen ollen Schinken außen vor. Nimm stattdessen The Witcher. Ist doch auch ein RPG mit einer wunderbaren Grafik noch dazu.
 
Zuletzt bearbeitet:
morgän^^
Hab in einen anderen thread über die 4870 gelesen das der s1 + rote platte so manche grakka schon abgeraucht, haben die den s1 falsch angebaut oder war ihre gehäuselüftung da zu schwach (denn die rote platte deckt ja auch die vrm mit ab).
Das liegt am Turbo-Modul - das taugt nichts und die Karte wird damit nicht ausreichend belüftet :fresse:
Mit gutem, ausreichend starkem 120er Lüfter hat noch keiner Probleme gehabt.
 
Ja schlaumeyer ist das so von normal das everest sagt GPU VRM ist 117°C lustiger vogel!!!

Jaaa....genau....das haben wir die letzten paar Seiten diskutiert. Einfach mal zurückblättern. Wir rollen das jetzt sicherlich nicht nochmal auf. ;)

Aber um's kurz zusammen zu fassen:

a) Einige sagen Everest hat recht bzw. man sollte lieber überschätzen als unterschätzen, um der Grafikkarte willen

b) Andere sagen Everest liegt schlicht daneben und die Angaben sind Blödsinn, weil GPU-Z neu ist und speziell für die 4800er-Serie angepasst wurde

c) Einer hat 'ne neue beta-Version von Everest getestet in der die Temps normal sind und denen von GPU-Z entsprechen

So, jetzt kannst du dir dein eigenes Fazit bilden. ;)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh