ATI HD 4870 RV770XT "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 7

Status
Für weitere Antworten geschlossen.
dürften bei spielen tiefer sein habs noch nicht so getestet furmark hat halt immer die meiste Hitze erzeugt deswegen hab ich das hergenommen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das problem ist das sie im standardtakt werte von 125-126 grad erreichen. frage mich ob das vl auslesefehler sein könnten.

mal zum vergleich ich hab nach ner stunde warhead 85 grad, unter furmark aber nach 6min schon an die 100. selbe karte nur 512 mb (original kühler aber andere lüfter)

hab mal gelesen die vertragen bis 125 grad

gruss grobjo
 
dürften bei spielen tiefer sein habs noch nicht so getestet furmark hat halt immer die meiste Hitze erzeugt deswegen hab ich das hergenommen.

Furmarkt heizt mindestens 30% mehr als das Spiele vermögen. Nichtmal Crysis kommt da ran.

Das ist also ein rein "synthetischer" Benchmark. ;)

PS: Dieser Tropic Benchmark ist ja echt schick, hatte in 1680x1050 ohne AA knapp 40 fps. Ich find's nur ironisch, dass Crysis diese Grafik toppt und zwar in Echtzeit, mit KI und Physikengine. Ok, die mittleren fps liegen bei Crysis eher im Bereich 30 fps, nicht 40, aber trotzdem sieht es besser aus und läuft flüssig. ^^
 
Zuletzt bearbeitet:
Du hast aber schon gehört, dass einige Sapphire-Karten mit neuerem BIOS genau diesen Fehler mit GTA San Andreas aufweisen und dass ein neues BIOS diesen Fehler behebt? Hast du eine Sapphier HD 4870?

Die Karte macht Klötzchen im 2D Betrieb und im anderen PC auch, stürzt mit Bluescreens vorm Windows Start ab.
 
Ich würde die aktuellste Version nehmen. Finde ich gut, dass du das testest...stellvertretend für uns alle. :d Berichte dann mal bitte, ob's mit den TrayTools klappt. :)

Ati Tray Tools 1.59
Vista 64
Klappt wunderbar! :hail:

Furmarkt heizt mindestens 30% mehr als das Spiele vermögen. Nichtmal Crysis kommt da ran.

Das ist also ein rein "synthetischer" Benchmark. ;)

PS: Dieser Tropic Benchmark ist ja echt schick, hatte in 1680x1050 ohne AA knapp 40 fps. Ich find's nur ironisch, dass Crysis diese Grafik toppt und zwar in Echtzeit, mit KI und Physikengine. Ok, die mittleren fps liegen bei Crysis eher im Bereich 30 fps, nicht 40, aber trotzdem sieht es besser aus und läuft flüssig. ^^

Furmark ist auch stellvertretend für 70 Watt Mehrverbrauch des gesamten Systems.
400W zu 330W.
 

Anhänge

  • vista ati tray.jpg
    vista ati tray.jpg
    128,8 KB · Aufrufe: 40
Zuletzt bearbeitet:
Die Karte macht Klötzchen im 2D Betrieb und im anderen PC auch, stürzt mit Bluescreens vorm Windows Start ab.

Ehrm...sag ich doch, die ist wahrscheinlich deffekt...worauf wartest du noch, schick sie zurück! :fresse: :d

Ati Tray Tools 1.59
Vista 64
Klappt wunderbar! :hail:

Naja, es ging eher darum zu testen, ob diejenigen, die mit dem alten ATi Tool diese gelben Streifen sehen, dann auch Grafikfehler im deutlich neueren ATi Tray Tools Test haben, oder nicht. ;)

Aber wie gesagt, ich mach mir da nicht wirklich Sorgen, da ich in keinem Spiel, egal ob Source-, Unreal, oder Cry-Engine, Probleme habe. Das wäre eben nur eine Bestätigung gewesen, dass man dieses alte Tool entgültig auf den Müll werfen sollte...
 
Zuletzt bearbeitet:
Ehrm...sag ich doch, die ist wahrscheinlich deffekt...worauf wartest du noch, schick sie zurück! :fresse: :d



Naja, es ging eher darum zu testen, ob diejenigen, die mit dem alten ATi Tool diese gelben Streifen sehen, dann auch Grafikfehler im deutlich neueren ATi Tray Tools Test haben, oder nicht. ;)

Aber wie gesagt, ich mach mir da nicht wirklich Sorgen, da ich in keinem Spiel, egal ob Source-, Unreal, oder Cry-Engine, Probleme habe. Das wäre eben nur eine Bestätigung gewesen, dass man dieses alte Tool entgültig auf den Müll werfen sollte...

Seit dem AMD GPU Clock Tool kann man die ATi Tray Tools getrost auf den Müll schmeißen.
Übrigens funzt das Tool einwandfrei, soeben getestet mit GRID und COD4.
Keine Fehler.

Hab aber dennoch lieber meine AMD GPU CT Profile. ;)
 
Seit dem AMD GPU Clock Tool kann man die ATi Tray Tools getrost auf den Müll schmeißen.
Übrigens funzt das Tool einwandfrei, soeben getestet mit GRID und COD4.
Keine Fehler.

Hab aber dennoch lieber meine AMD GPU CT Profile. ;)

Die Fehler traten mit diesem Würfel auf, wenn man "Search for Artifacts" oder so klickt...genau weiß ich es nicht.

Von Spiele war nie die Rede bzw. ist in Spielen alles ok, es ist eben nur dieser Würfe. Wie das aussieht...schau mal in das Video, was auf der vorigen Seite verlinkt wurde. ;)
 
Moin


gerade pc zusammengebaut...gpu-z zeigt an, dass meine powercolor hd 4870 (normal, kein pcs) bei 78°c und 950 rpms läuft...ist das nicht etwas zu warm im idle? die karte höre ich auch gar nicht aber derl üfter dreht....


was tun?
 
Ist normal... hier gibts aber genügend Anleitungen um die Karte Idle herunterzutakten, dann wird sie nur noch 50-60°C warm...
Das ist nunmal so konzipiert, dass die Karte mehr oder weniger immer gleich warm bleibt.. unter Last (CoD4, Crysis, etc.) wird die dann auch nur max. 90°C warm (bei mir nur 85), weil der Lüfter schneller dreht. ;)
 
Moin


gerade pc zusammengebaut...gpu-z zeigt an, dass meine powercolor hd 4870 (normal, kein pcs) bei 78°c und 950 rpms läuft...ist das nicht etwas zu warm im idle? die karte höre ich auch gar nicht aber derl üfter dreht....


was tun?

Das ist "normal", ich hatte damals sogar über 80°C um idle, das war noch an den heißen Sommertagen. Mit dem Originalkühler kannst du mehr leider nicht erwarten.

In Spielen sollte der irgendwann aufdrehen, spätestens ab 95°C und glaub mir, dann wirst du ihn hören. :d
 
Bin seit heute auch Besitzer eine 4870-er PowerColor-Karte. Muss mich erst wieder an ATI gewöhnen. Temps sind unter Last bedenklich hoch 95Grad bei offenem Case werden erreicht.Idle meist 76 rum. Ist das noch normal oder sitzt da was nicht richtig? Muss wohl selbst an der Lüftersteuerung was drehen.

Jetzt aber mal was zur Performance....bin im allgemeinen enttäuscht. Umstieg war von einer 8800GTS G92,meine bevorzugte Auflösung ist 1680x1050 wegen 22Zoll LG.
Hab 3D-Mark05/3D-Mark06 jeweils mit Standardsettings laufen lassen. Die GTS war mit 750Mhz coretakt etwas übertaktet. Cath 8.9 sowie 177.98Forceware wurden eingesetzt.
OS ist WinXP inkl SP3

-> 3d-Mark 05 24780 ATI 4870
-> 3d-Mark 05 25500 8800GTS G92

-> 3d-Mark 06 14870 ATI 4870
-> 3D-Mark 06 15600 8800GTS G92

Hätte ich nicht gedacht,aber bereits die 4850 war relativ schwach in diesen Benches.Aber egal,ich zocke ja kein 3D-Mark.

Dann aber Grid Race Driver getestet und FPS verglichen. Wieder machte die GTS das Rennen. Mit vielen Autos auf bestimmten Strecken@max Detail und AA Stufe2 ist die ATI schon arg ans Limit gekommen,wenn viele Autos sichtbar waren.Wieso????

COD4 max Detail und max. AF gewinnt die ATI. UT3 gewinnt die ATI auch,aber nur dezent. Ist das wirklich so,dass der Leistungsunterschied so gering ist? Finde das schon recht schade und rechtfertigt nicht den hohen Strombedarf gegenüber der GTS.Zumal die NV-Karten bald nochmals Voreile aus PhysX und CUDA ziehen können. Bin etwas enttäuscht,hätte mehr erwartet.

Könnt ihr meine Meinung teilen oder habt ihr andere Eindrücke?

Mein Sys: C2D 8400@4,2Ghz 4GB RAM @ 990Mhz
Gigabyte P35 DS4
 
wenn du natürlich die GTS auch übertaktest, und gegen die 4870 Stock laufen lässt...

Mit OC steckt die 4870 die GTS in allen Disziplinen weg. Ich habe mit nem e8200 @ nur 4Ghz und OC halt 16000 3Dmurks ;) und auf 1680x1024 macht sie die GTS auch locker frisch
 
Wie gesagt, der Performance-Unterschied ist erschreckend gering bei mir zwischen den Karten und dass sie im 3D-Mark quer durch die Reihe verliert,hätte ich nicht gedacht.Glaube für die Games,die ich spiele hätte ich bei NV bleiben sollen...
 
wie gesagt... bei dir läuft dann irgendwas falsch...
komisch, dass jeder Benchmark auf Computerbase und THG usw für die 4870 spricht... Ich hatte vorher die 8800GT, die net grad langsamer als die GTS ist und habe deutlichen performance-schub bekommen!
 
Kann halt nur aussagen,was ich hier sehe....werde morgen mal noch ein paar andere Games antesten. In UT3-Engine basierte Games,COD4 und hohen AA-Stufen ist die Radeon stark.Bei wenig Filterung, OpenGL, 3D-Mark,Grid bisher mal eher schwach.
 
was hier wieder los war wenn ich nicht da bin. also mit der ksrte stimmt echt was ned habe alle tipps befolgt.
alles nemachen sogar 2mal - alle treiber patch usw installiert - übertakten runter gemacht - anderen PCIe slot benutzt. ergebniss wie vorher bluescreeens in spielen, außerdem pixelfehler und bildfehler beim scrollen. da stimmt doch was ned und warum wird das geräusch da immer lauter das es den Lüfter auf 50 übertöhnt?
 
Grüsse euch.
Ich habe heute meine HIS HD4870 1024Mb eingebaut und nun paar Probleme

ich habe den Catalyst 8.9 installiert und es läuft soweit gut, allerdings hatte ich beim neustart dann die Meldung " PCI Device gefunden " und Software installation. Natürlich hat er dort nix gefunden und nun sind im Gerätemanager 2x PCi Device in " ? andere Geräte ". Hat jemand noch dieses Problem?
Es steckt ja nur die Graka an einem PCIe Slot.

Und dann habe ich eine Frage zur Performance. Ja, ich weiss, 3DMark06 sagt nicht umbedingt viel aus.
Allerdings habe ich mit der HD4870 einen Score von 12585. Das ist sogar schlechter als mit meiner alten EVGA 8800 GTS 512. Die Einstellungen hab ich nicht geändert, 1280x1024, AA aus usw. Stadardeinstellungen halt. Hab einen C2Q Q6600 und 4gb RAM ( unter Win XP 32 )
In TF2 hab ich eine Auflösung von 1920x1200, 4xAA und 4xAF. Auch dort spür ich keinen wirklichen Unterschied zu meiner 8800GTS, bei 2fort habe ich bei der Brücke wenn 4-5 Leute noch da stehen manchmal 35-40 FPS. Ansonsten gehts ja, in " ruhigen " Momentan dann wieder 70-120.

Trotzdem sehr komisch. Hab ich einfach zu viel erwartet oder stimmt da was nicht?

3DMark scheint mir etwas niedrig zu sein.. sollten schon 14000 sein, denke ich. Ich kanns leider nicht testen weil bei mir der 06er immer abkackt (D3DDevice..bla).

Hab nun mein Windows neu installiert, das " PCI Device gefunden " Problem ist nun weg. Allerdings hab ich nun einen Score von 13107
SM 2.0 Score 5144
SM 3.0 Score 6097
CPU Score 3797
Wie gesagt, 3DMark ist mir ja eigentlich Latte und sagt net viel aus wie viel FPS man in Spielen hat, aber trotzdem finde ich es " komisch niedrig" im Gegensatz zu meiner 8800GTS 512 wo ich ~12500 hatte

Was mich ja auch wundert ist, dass die Graka überhautpt nicht lauter wird in Spielen oder 3dMark als in Windows und GPU-Z zeigt mir fast immer die gleichen Temps an:
GPU Temp ( DISPIO ) 77°
GPU Temp ( MEMIO ) 85°
GPU Temp ( SHADERCORE ) 78°

Sollte man denn in C 8.9 irgendwas bestimmes einstellen?

EDIT: Hab nun nochmal im Internet geschaut:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7973&Itemid=1
" ATI's soon-to-be-launched dual slot, Radeon HD 4870, will score 12600 on a Q6600 based system. We are talking about default 1280x1024 3Dmark06 score. "
Meine 3107 scheinen also wohl " normal " zu sein
 
Zuletzt bearbeitet:
Also ich kann es echt nicht mehr hören. Könnt ihr mal bitte aufhören, diese blöden 3dmark06 Werte als Referenz zu nehmen? Und wenn es schon unbedingt ein Benchmark sein soll dann macht doch bitte den Vantage unter Vista.

Dass die 4870 nicht schneller als die 88GTS sein soll halte ich für ein Gerücht bzw. einen Fehler beim Anwender. Der Unterschied beträgt mindestens zwischen 20% und 30%, wenn man AA und AF anschaltet können es auch gerne mal 50% sein. Ein Umstieg lohnt sich natürlich auch nur, wenn man mit der GTS am Anschlag war mit den Frames, was meiner Meinung nach höchstens bei Crysis der Fall sein sollte.
 
Also ich kann es echt nicht mehr hören. Könnt ihr mal bitte aufhören, diese blöden 3dmark06 Werte als Referenz zu nehmen? Und wenn es schon unbedingt ein Benchmark sein soll dann macht doch bitte den Vantage unter Vista.

Dass die 4870 nicht schneller als die 88GTS sein soll halte ich für ein Gerücht bzw. einen Fehler beim Anwender. Der Unterschied beträgt mindestens zwischen 20% und 30%, wenn man AA und AF anschaltet können es auch gerne mal 50% sein. Ein Umstieg lohnt sich natürlich auch nur, wenn man mit der GTS am Anschlag war mit den Frames, was meiner Meinung nach höchstens bei Crysis der Fall sein sollte.

Wie ich schon gesagt hatte, 3DMark ist mir an sich egal und sagt nicht viel über die Lesitung bei Spielen aus. Erst dort zeigt sich nämlich wie viel die Karte leisten kann.
Doch mit 3DMark kann man meist am schnellsten/einfachsten einen " Unterschied " zu seinem vorherigen System sehen. Natürlich am deutlichsten wenn man alles komplett austauscht.

Natürlich hat die 4870 mehr Power wie eine 8800 GTS 512, dies zeigt sich wohl aber erst/nur in Spielen mit hoher Auflösung, AA usw.
3DMark06 benutzt ja in der Standardeinstellung nur 1280x.. , kein AA usw. Da ist der Unterschied zwischen einer 8800 und 4870 wohl nicht sehr gross, dies ist mir aber erst später eingeleuchtet :) tut mir leid

Zu den Temps.. Sind die soweit " normal " bei mir? Hier im Forum spricht man ja von ~77°. Mich wundert es halt, dass die Karte bei Spielen überhaupt nicht lauter wird und die 77° werden ja im Windows-Betrieb angezeigt, bei Spielen wird sie nicht wirklich höher.
 
Hab nun mein Windows neu installiert, das " PCI Device gefunden " Problem ist nun weg. Allerdings hab ich nun einen Score von 13107
SM 2.0 Score 5144
SM 3.0 Score 6097
CPU Score 3797
Wie gesagt, 3DMark ist mir ja eigentlich Latte und sagt net viel aus wie viel FPS man in Spielen hat, aber trotzdem finde ich es " komisch niedrig" im Gegensatz zu meiner 8800GTS 512 wo ich ~12500 hatte

Was mich ja auch wundert ist, dass die Graka überhautpt nicht lauter wird in Spielen oder 3dMark als in Windows und GPU-Z zeigt mir fast immer die gleichen Temps an:
GPU Temp ( DISPIO ) 77°
GPU Temp ( MEMIO ) 85°
GPU Temp ( SHADERCORE ) 78°

Sollte man denn in C 8.9 irgendwas bestimmes einstellen?

Wenn du nicht OC hast dann ist das völlig normal mit den Werten, da beim 06er in 1280x1024 ohne AA+AF es hauptsächlich auf die CPU ankommt ;)

Und wiso soll der Lüfter hochdrehen, wenn die Temp. im grünen Bereich liegen ?
 
Mal ne Frage an euch:

Gestern Abend wollte ich noch kurz mal Oblivion anspieln, aber was war: längs mittig flackernde Pixelquadrate (vielleicht 5x5 Pixel, Farbe ungefähr wie die der Texturen dahinter) :( Auch in allen anderen 3D-Anwendungen.
Hab dann (ohne Reboot) alles auf default gesetzt und trotzdem noch (also OC der CPU mal raus, ATT ausgeschaltet und dafür das CCC walten lassen etc., die GraKa war nie auf OC). Temps waren aber alle iO (sowohl die drei der GraKa als auch die der CPU).
Vor dem Spielen lief PRIME auf beiden Cores von 8-23 Uhr (ohne Fehler :P).

Hmm, keine Ahnung, was war, nach einem Reboot, war alles gut. Hab dann über Nacht 3DMark06 im Loop laufen lassen -> keine Probleme. War das jetzt Pech/Zufall, oder was? Oder liegts vielleicht einfach noch am Treiber (Win XP SP3, Cat. 8.9)?
Noch hab ich > 1 Woche Zeit, um die Grafikkarte während der 14 Tage zurückgeben zu können.

MfG,
ThreeD
 
ja!!!

also ivh habe auch nochmal die PCS+ bestellt dann ahbe ich ne GTX260mund die HDPCS+ die werde ich testen die schnellere bleibt drinn die langsamere kommt in den 2ten Pc vom Bruder.
Ich schicke heute die zurück habe nochmals dran rumgemacht aber es bringt nichts.
 
Naja, anscheinend ist PP in diesem Bios aktiv, die Idletemperatur fällt um einiges.

MFG

€: Kann ich es nun flashen oder nicht? Ist eine Powercolor, eine der ersten in Deutschland...

Du kannst es nur auf 512MB Variante flashen, habe es auch ohne Probleme auf meine Powercolor geflasht. Ob man es auch auf die PCS flashen kann weis ich nicht.

Lade dir das Bios von hhtoprakhh und die Atiflash.exe und flash.bat von sapphiere (stehen bei den Treibern) und gebe zum flashen
Atiflash -f -p 0 sapphire.bin ein.

Flashen mußt du die im Dos

Bios:
http://www.forumdeluxx.de/forum/showpost.php?p=10204934&postcount=358
 
Wie man flasht weiß ich schon. Danke für das Bios!
Mit diesem Bios ist doch angeblich der VRam-Flackerbug behoben, dann könnte ich doch die Idlewerte ändern, so muss ich nicht ständig umschalten. Nur welche Werte muss ich ändern, ich will ja nichts schrotten...?

MFG
 
Wie man flasht weiß ich schon. Danke für das Bios!
Mit diesem Bios ist doch angeblich der VRam-Flackerbug behoben, dann könnte ich doch die Idlewerte ändern, so muss ich nicht ständig umschalten. Nur welche Werte muss ich ändern, ich will ja nichts schrotten...?

MFG

Soweit ich gelesen habe hat dieses BIOS schon niedrigere idle-Werte, oder nicht? Wäre doch nur die halbe Sache, wenn das Flackern weg wäre, man aber dies nicht gleich nutzt. ^^
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh