Mein Testbericht und diverse Benchmarks meiner Sapphire HD6950

Bitte bleibt sachlich, und ein Danke wäre sicher nicht verkehrt ----> auch Deinerseits.
Habe nun etwas optimiert, da ich zu schnell abgespeichert hatte.
Mein Fehler, Sorry!

Werde später nochmals korrigieren und auf Rechtschreibfehler achten.

Wichtige Mitteilung:
Falls nochmals solche Meldungen kommen, oder mein System mit den von mir reingestellten Benchmarks nur belächelt werden, nehme ich den Bericht wieder raus.
Mein Bericht soll nur als Anhalt dienen,- und spiele derzeit alles flüssig in 1920x1200 inkl. 4AA/16AF und dem E8400.
Gar Metro 2033 rennt um einiges Besser als vorher,- soviel muss gesagt werden.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja hat sich ja gelohnt das optimieren,was mir heute Abend noch aufgefallen ist hab bei einem bekannten ne neue Graka eingebaut ne Ati 5870 umstieg von ner Ati 4850 als ich dann ins Catalyst CCC schaute stand da, bei max 625/993 MHZ auch nicht schlecht, hat die Taktraten von der ATI 4850 komplett übernommen.

kann natürlich auch ein Grund sein ,das mann meint die neue Karte geht nicht richtig,Treiber runtergeschmissen und neu aufgespiekt brachte dann abhilfe jetzt Max 850/1200 wie es sich gehört.


mfg G.
 
aha also labert der Typ den ich dran hatte von PowerColor Bullshit ja?? gut gut...lol

dir wurde doch nie und nimmer von powercolor bestätigt dass das flashen eines nicht von powercolor freigegebenen bioses welches die 6950 in eine 6970 verwandelt nicht zum verlust der garantie führt!

proof or it did not happen!
 
Bitte bleibt sachlich, und ein Danke wäre sicher nicht verkehrt ----> auch Deinerseits.
Ein Danke muss man sich verdienen und mit so einer Aussage tust du dir bei mir keinen Gefallen. Zumal dein System nicht von mir belächelt wurde, sondern ich karstellte, dass ein 8400-er @ Standardtakt deine Karte limitiert in vielen Situationen. Und das ist Fakt!
 
jo stimmt der E 8400 bei Standardtakt limitiert.

Aber danke nochmal Berni_ATI für deinen Bericht.


mfg G.
 
Lol, was geht denn hier ab? Da stellt einer nen Erfahrungsbericht rein, und wird von einigen Hohlbirnen dazu aufgefordert, sein System aufzurüsten.
Gehts noch? Es gibt sicher mehr Leute, die auf Dual Core CPUs unterwegs sind, als ihr glaubt.
 
C2D E8600 @ 4400Mhz (550x8)
HD6950 @ HD6970 900/1400 1,175V Powertune +15% gegen HD6950 @Stock
Catalyst A.I. auf "Hohe Qualität"

Rot = OC Grün = Stock Blau = OC NoAA


3DMark11: P4714 Result
3DMark Vantage: P15158 3DMarks Result

3DMark06: 13803 Result (1920x1200, 8xAA 16xAF - Full Run !)



Crysis (1900x1200, 64bit, VeryHigh Quality, 4xAA, max. Speicherauslastung: 1114MB):
min. 19,79 max. 40,11 avg. 34,87 (Run2)
min. 17,29 max. 38,67 avg. 33,04 (Run2)
min. 20,69 max. 50,55 avg. 42,87



Warhead (1920x1200, 32bit, Enthusiast, 4xAA, max. Speicherauslastung: 1145MB):



Dirt 2 (1920x1200, DX11, 24xEQ 16xAF, Ultra Settings):
min. 54,5 avg. 74,8
min. 49,7 avg. 67,0
min. 58,6 avg. 76,2



Lost Planet 2 (1920x1200, 24xEQ 16xAF):

Test A:



Test B:



Mafia 2 (1920x1200, 24xEQ 16xAF):
min. 12,0 max. 142,9 avg. 60,6
min. 10,8 max. 142,9 avg. 54,2
min. 12,8 max. 200 avg. 84,5



Unigine Heaven 2.1: (1920x1200, extreme Tesselation, 8xAA 16xAF)
min. 11,4 max. 57,8 avg. 24,8 Score 624
min. 7,5 max. 53,8 avg. 22,7 Score 572
min. 13 max. 109,3 avg. 33,8 Score 852



Just Cause 2 (1920x1200, 24xEQ 16xAF):
avg. 53,92
avg. 47,83
avg. 75,92



Streetfighter IV (1920x1200, 24xEQ 16xAF):
avg. 167,11 Score 11261
avg. 153,39 Score 10581
avg. 231,95 Score 19061



Aquamark 3 (lol):



Resident Evil 5 (1920x1200, DX10, 24xEQ 16xAF)

Bench A:



Bench B:



FarCry 2 (1920x1200, DX10, Ultra High, 24xEQ 16xAF):
min. 45,41 max. 96,27 avg. 63,00
min. 41,21 max. 86,31 avg. 59,63
min. 57,53 max. 115,24 avg. 79,5



S.t.a.l.k.e.r. Call of Pripyat (1920x1200, DX11, Ultra, 4xAA)



Counterstrike Source (1920x1200, DX9, 24xEQSSAA 16xAF) <- Der Hammer



Alien vs. Predator (1920x1200, DX11, 4xAA 16xAF, max. Details)
avg. 40,6
avg. 35,8
avg. 65,1

 
Zuletzt bearbeitet:
Falsch der reine Flash hat kein Garantieverlust zu folge, erst wen man am Power Control etwas verstellt ist die Garantie futsch. Hab mich bei PowerColor direckt schlau gemacht..ich weiß nicht ob das bei jedem Hersteller gleich ist.

Interessant, du sagst also dass der flash zu einer HD6970 kein garantieverlust mitsich zieht? Oder generell der flashvorgang (eines offiziel freigegebenen) bios an sich?

Wäre etwas schwachsinning wenn eine option, die allen 0815 MM kunden zur verfügung gestellt wird den garantieverlust mit sich bringt, ein "eingriff" in die hardware jedoch nicht.
:shake:
 
@elcrack0r
Aussagekräftige und aufschlussreiche Benchmarks, da limitiert so gut wie nix mehr !
----> Herzlichen Dank meinerseits!

Wie hoch hast denn den E8600 getaktet: 3,33 Ghz oder 5,95 Ghz.
Oder laut deiner Signatur auf 4,4 Ghz.

Kannst mal bitte LP2 und Warhead Bench mit 24x ED laufen lassen, also ALLE Regler komplett nach Rechts... sowie ED auswählen.
Bei diesen Settings sollte sich der Bench aufhängen... Kannst dies bitte mal gegentesten ?
 
Zuletzt bearbeitet:
Hab ich eben mal gemacht. Benches laufen durch... Kann aber nicht 100% sagen ob ED bei LP2 greift. Warhead war kein Problem.
Der einzige Benchmark mit dem ich richtig Probleme habe ist Stalker - CoP... der will gar nicht erst starten.

Rechner wie im Systeminfo...

Edit: Stalker lief eben ohne Probleme...
Den LP2, RE5 und Farcry2 Bench habe ich nochmal neu gemacht.
Edge-Detect greift auch.

update... CS Source mit SSAA rofl ! :d
 
Zuletzt bearbeitet:
@elcrack0r

Wäre toll wenn du einige Games auch in der exakten Einstellung mit der HD6950 Standard, also OHNE Flash und Standardtaktraten 800/120 laufen lassen könntest.
Müssen nicht alle Games sein, EINIGE würden schon reichen...

Nochmals getestet.
Mit MLAA hängt sich der LP2 und Warhead Benchmark auf.
Habe diese Einstellungen und spätestens nach einem erneuten 2 Durchlauf hängt das Game!

Anhang anzeigen 142646

Diesmal war die Meldung:

DXGI-ERROR-DEVICE-HUNG: hrPresent
 
Zuletzt bearbeitet:
hm finde den thread sehr interessant in der hinsicht, dass ich auch einen E8400 habe und ne HD4850, spiele zwar kein warhead farcry etc, jedoch starcraft 2 und will mein sys dementsprechend aufrüsten, da die aktuelle hardware nicht mehr das bringt was ich will.
hab von OCing nich so die peilung, aber ne neue graka wär vllt mal an der zeit oder?
 
ich denke ein dual-core ist für ne 69x0 durchaus nen spürbar limitierendes element.
deswegen hab ich mal eben mit crysis warhead gebencht:
selbe settings wie Berni_ATI - hd6970@stock - 1090T@3,4ghz

6 Kerne aktiv:
(-> alle kerne im schnitt nur wenig ausgelastet (crysis ist eben nicht auf mehr als 4 kerne optimiert), selbst 4ghz bringen bringen so gut wie nix -> gpu-limitiert)
<= 3,4ghz <= 4,0ghz

4 Kerne aktiv:
(-> selbe performance wie 6 Kerne)


3 Kerne aktiv:
(-> selbe performance wie 6 Kerne, 3 Kerne scheinen unerwarteterweise noch auszureichen)


2 Kerne aktiv:
(cpu-auslastung im schnitt ~90%, gpu-auslastung bricht teilweise auf ~60% ein -> 2 Kerne reichen grad noch so aus, dennoch erkennt man an den min. fps, dass die cpu extrembelastungen (explosionen etc) nicht mehr gewachsen ist)
<= 3,4ghz <= 3,0ghz <= 4,0ghz

1 Kern aktiv:
(-> extreme leitungseinbußen)



Fazit: mit bernie_ati kann ich nicht 100% exakt vergleichen, dennoch sprechen 25,2fps gegen 39,3fps*0,89=35fps ne deutliche sprache.
mehr kerne und/oder mehr takt bringen auf jeden fall mehr performance.
daher solltest du auf jeden fall die cpu übertakten - 3,6ghz sollten ja kein problem sein. die 20% mehrleistung dürften gut 1:1 in mehr fps umgesetzt werden.
wär schön, wenn du das mit benchmarks bestätigen kannst.


edit: hab mal eben die CF performance getestet:
(40,4% mehr leistung im CF, lohnt für mich hinsichtlich der kosten nicht)
<= 1gpu <= 2gpu
 
Zuletzt bearbeitet:
Ich mache gerade noch ein paar Benches mit einer 6950@Stock und stelle sie den Werten der freigeschalteten und übertakteten Version in Post #37 gegenüber.
 
Hier mal ein schöner beweis das eine GTX580 bei Crysis@ extrem bildquali keinen stich gegen eine HD6970 sehen wird 2GB sei dank!!

1920x1080 8xAA 16xAF +MLAA HD Texturpack+ Timewarp's config!!
Mehr bilder Hier

@Nuerne89
Deine CPU ist bei crysis einfach VIEL zu langsam deshalb scalliert crossfire nicht richtig schau dir die GPU auslastung an!!!
Ein Intel ist da echt um welten schneller!!! Leider :(
habe ja auch nur einen x4@3,7 welcher damit so schnell ist wie vom kumpel der i5@ 2,6Ghz!!!! :kotz:
 
Zuletzt bearbeitet:
Suuuper!
Genialer Bericht, erste Sahne.

PS:
Vor allem die MIN frames steigen bei einer HD6950 @6970 900/1450 sehr stark an. Ansonsten ca. 10% Mehrleistung.

Dies erscheint mMn eher wenig wenn man die Taktsteigerung und das Freischalten der Shader in Anbetracht zieht, die MIN frames sind aber Super gestiegen. Dort lohnt es sich am Deutlichsten!
 
Ich finde das gar nicht so wenig in Anbetracht der BQ Settings.
Von 800/1375 auf 900/1400 sind es Taktmässig ja gerade mal 12% mehr GPU-, und 1% mehr Speichertakt (plus 9% mehr Shader)
Ich bereite gerade schon eine Excel Tabelle vor, wo die Leistungszuwächse und Ergebnisse übersichtlicher dargestellt sind.

Eventuell werde ich am Ende nochmal alles ohne AA und AF durchlaufen lassen...
Mir juckts total in den Fingern. Evtl hole ich mir nächsten Monat noch so eine Karte.
 
Zuletzt bearbeitet:
Powerplay schrieb:
@Nuerne89
Deine CPU ist bei crysis einfach VIEL zu langsam deshalb scalliert crossfire nicht richtig schau dir die GPU auslastung an!!!
Ein Intel ist da echt um welten schneller!!! Leider
habe ja auch nur einen x4@3,7 welcher damit so schnell ist wie vom kumpel der i5@ 2,6Ghz!!!!

ich glaub, da hast du dich vertan. die cpu langweilt sich auch bei cf noch ordentlich.
wenn es beim single-gpu-betrieb schon kaum nen unterschied macht, ob ich 3,4 oder 4ghz nutze, dann wird die cpu im cf bei 4ghz auf keinen fall limitiern.
die gpu-auslastung ist auf meinem screenshot gar nicht zu sehen, ich bin aber sicher, dass die gpu's meistens voll ausgelastet sind.
wenn ich mit einer gpu mal nen durchlauf mache, wo die grafiksetting auf minimum und die cpu-settings auch maximum sind, dann hätt ich auf jeden fall >100fps, also nix mit cpu-limit.
 
Zuletzt bearbeitet:
Bei Crysis hat man schnell 5 - 10FPS mehr mit einem Intel, egal ob Single oder Multi GPU. Habe es auch nicht geglaubt aber seit ich den 2500K habe weiß ich es besser.
Gerade im Multi GPU Bereich stößt der Phenom an seine grenzen. Bei Battlefield Bad Company 2 habe ich mit dem Intel 100 - 120FPS, da hatte ich vorher höchstens 70FPS, meisten allerdings nur 55 - 60FPS.
Das sind schon sehr große Unterschiede, bei Crysis ist ebenfalls ein großer Sprung bemerkbar.
 
aktuelle Benchübersicht: siehe Post #60
 
Zuletzt bearbeitet:
Bei Crysis hat man schnell 5 - 10FPS mehr mit einem Intel, egal ob Single oder Multi GPU. Habe es auch nicht geglaubt aber seit ich den 2500K habe weiß ich es besser.
Gerade im Multi GPU Bereich stößt der Phenom an seine grenzen. Bei Battlefield Bad Company 2 habe ich mit dem Intel 100 - 120FPS, da hatte ich vorher höchstens 70FPS, meisten allerdings nur 55 - 60FPS.
Das sind schon sehr große Unterschiede, bei Crysis ist ebenfalls ein großer Sprung bemerkbar.
Genau so ist es!!!
Und deshalb bin ich auch der meinung das die phenom2 einfach total scheiße sind!
selbst bei einer HD6970 hat man deutlich weniger fps mit nem Phenom 2 X4@ 3,7 im vergleich zu nem 3,6Ghz i5 und das sogar bei full HD!!!
 
Enorm geiler und EXTREM aussagekräftiger Testbericht.
Kommt meinem kleinen Bericht in keinster Weise nahe.

Hoffe es kommen noch Bridge 2500/ 2600 Benchmarkes dazu...
 
Battleforge werde ich noch testen und dann denke ich reicht das auch...
Es lässt sich auf jeden Fall schon mal feststellen, dass es sich auch für einen Dualcoreuser lohnen kann, die HD6950 freizuschalten.
 
Zuletzt bearbeitet:
Ein Dualcore mit hohem Takt ist auch noch eien sehr gute Basis. Gibt ganz wenige Spiele, die damit nicht flüssig laufen, wenn der Takt stimmt. Aber dennoch würde mich interessieren, wieso es an manchen Stellen solch einen enormen Unterschied gibt. Du hast ja gegenüber Standard bei CS eine Verfielfachung der FPS an. Da lag sicherlich ein Benchfehler dahinter. Bei Aliens vs- Predator erscheinen mir die Werte auch extrem mit der Steigerung des Taktes und der Shader. Schau mal ob deine KArte sich manchmal, dort wo du negative % angibst nicht evtl. runtertaktet. Dürfte nämlich ansonsten nicht sein.
 
Bei CS ist der Unterschied so enorm weil ich einmal mit SSAA und das andere mal ohne AA teste. Runtergetaktet hat die sich die Karte bisher noch nie. Das habe ich immer im Blick. Mit den Battleforge Benches bin ich fast durch, kann nur sagen dass dort die Zuwächse ähnlich wie bei AVP sind. Kommt halt aufs Spiel an.

Update btw...
 
Zuletzt bearbeitet:
Wäre gut für einen direkten Vergleich.
Haben wir bereits:

DualCore E8400 3,0 Ghz mit HD6950
Dualcore E8600 @4,4 Ghz mit HD6950 @6970

Nun wäre mal ein:
Quadcore Q9650 3Ghz (Standardtaktraten)
Q9650 @3,5 -3,7 Ghz

SandyBridge 2500/2600
mit einer HD6950/ @6970 noch durch den Wolf zu jagen...

Vielleicht findet sich ja jemand... Wäre durchaus interessant...
Mache auch noch einige Benchmarks, OK !!

Wer kann mir die Benchmarks Tools verlinken ?
Danke!
 
Bin etwas verwundert, aber informativ auf jeden Fall. Mensch, meine Karte liegt daheim und ich bin 800Km weg in Berlin und weis nicht,wann ich heimkommen kann. Würd so gern selbst benchen mit meinem I7 und schauen, ob ich die Karte flashen kann.
 
Bin jetzt mit allen Benchmarks durch. Crysis Warhead hat noch gefehlt.

1htt0.jpg

26di9.jpg
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh