ATI HD4870x2 2GiB alias R700/Spartan + Reviews + Diskussion Part1

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Adaptives AA funktioniert bei Ati auch nicht mehr nach altem Schema. Der Treiber entscheidet von alleine ob er MSAAA oder SSAAA verwendet. :fresse: :stupid:

also ich habe auch das Gefühl, dass der Treiber meint, er soll was aktivieren oder nicht, je nach Laune.

Bei NV waren die FPS mit erzwungenem AA wesentlich konstanter und machten bei wiederholtem Laden des Spiels keine Sprüngen. Gerade 24xEDAA war da manchmal komisch.
 
Was meinst du mit Games, wo es sich nicht erzwingen lässt?

Weil dort kein AA möglich ist?

Was nützt mir bei TDU im Treiber 24xMSAA wenn es im Spiel nicht angenommen wird sondern nur das interne 4xAA? Leider gibt es einige Games welche die 24xMSAA vom Treiber leider nicht übernehmen und somit die möglichen Qualieinstellung brach liegen.
 

mit
- HD4870
- HD3870 X2

es geht ja ned um die FPS, es wurde nicht aktiviert, dh. BQ hatte keinen Unterschied mit dem Cat. 8.7. FPS im übrigen auch ned, waren nahezu identisch, was bei anderen Games ganz anders war. Und EDAA kostet bei den ATIs merklich Performance bei Singlekarten.

16xQA mit den NVs ist in vielen Fällen mit SingleGPU spielbar, bei den ATIs braucht man für 24xEDAA scheinbar MGPU :(
 
Zuletzt bearbeitet:
Adaptives AA funktioniert bei Ati auch nicht mehr nach altem Schema. Der Treiber entscheidet von alleine ob er MSAAA oder SSAAA verwendet. :fresse: :stupid:

Aha, die Nvidia-Fraktion ist wieder mal sooo um ATIs Bildqualität besorgt.

Das weiß ich doch selbst. Braucht mir doch kein Nvidianer zu erzählen.
 
Wie is denn die Karte von Gecube?mit 1 GIb? Ist ja grad mal 30 euro teurer wie die 512er...
 
Achtung, wer es nicht sofort nötig hat.:rolleyes:
Lasst euch bis Freitag, Montag Zeit mit der HD 4870X²
Preise sollten bsi dahin um/ gar minimal unter die 400 Euro Grenze fallen, die HD 4870 auf die 175-180 Euro.:love::heuldoch:

Meine 4870-er Karte habe ich ja auch schon vor 4 Wochen um 192 Euro gekauft, dieser Shop hat nun was in der darunterliegenden Preislage im Nest...
Ist aber ein ital. Shop, komme ja selbst auch aus Italien!
 
Zuletzt bearbeitet:
Aha, die Nvidia-Fraktion ist wieder mal sooo um ATIs Bildqualität besorgt.

Das weiß ich doch selbst. Braucht mir doch kein Nvidianer zu erzählen.

Du scheinst es nicht zu begreifen. Es geht darum, das euch vorgeschrieben wird was ihr nehmen dürft und was nicht. Ich möchte das aber bitte selbst entscheiden dürfen und nicht das was Ati einem vorschreibt! Wenn ich Supersampling wähle dann möchte es auch so sein, genauso verhält es sich auch mit den anderen AA Modis,Optimierungen und MultiGPU Geschichten.
 
Zuletzt bearbeitet:
Was nützt mir bei TDU im Treiber 24xMSAA wenn es im Spiel nicht angenommen wird sondern nur das interne 4xAA? Leider gibt es einige Games welche die 24xMSAA vom Treiber leider nicht übernehmen und somit die möglichen Qualieinstellung brach liegen.

Wenn AA nur in-game einstellbar ist, dann stell im CCC Edge-Detect ein und mach bei AA ein Häkchen für "Use application settings". So hat das ATI-Mitarbeiter Eric Demer, auch unter sireric bekannt, erklärt. Er sollte es eigentlich wissen.
 
Du scheinst es nicht zu begreifen. Es geht darum, das euch vorgeschrieben wird was ihr nehmen dürft und was nicht. Ich möchte das aber bitte selbst entscheiden dürfen und nicht das was Ati einem vorschreibt! Wenn ich Supersampling wähle dann möchte es auch so sein, genauso verhält es sich auch mit den anderen AA Modis.

Da muss ich dir recht geben , ärgert mich im Augenblick auch sehr. Komisch finde ich es nur das jetzt meckert wird weil man bessere Modis nicht nutzen kann aber wenn bei ATI die hohen Einstellungen greifen und die Karten damit schneller sind als die Nvida wird wieder gesagt wer braucht das schon. :fresse:
 
das stimmt schon und das geht auch einen auf den sack,da hat man schon z.b.300fps aber kann die nicht für bildqualität verwenden wie mehr aa als vom spiel vorgeschrieben,wozu hat man denn die 24aa egde zur auswahl wenn man es kaum nutzen kann.ok man kann es nutzen wenn man a.i. auschaltet aber dann ist auch cf hinüber und dann wird es wieder sinnlos.amd sollte das echt mal ändern.wenn ich sehe das genug leistung vorhanden ist dann will ich das in bildqualität nutzen und nicht 200fps da stehen haben.
 
Zuletzt bearbeitet:
Eine X2 brauch unter vollast ca. 350W. nur die karte....

:stupid: bei 275W TDP oder was :rolleyes:

Eine HD4870 zieht 130W nur die Karte, denn rest kannst dir selbst ausrechnen.

gaeyfb0kc.jpg
 
Selbst dann geht es leider in manchen spielen nicht :(

das ist echt traurig und für mich der größte kritikpunkt bei den karten,das ging mir schon bei der 3er serie auf den keks aber da konnte man es ja noch irgendwie verstehen weil halt die aa und af leistung schlecht war aber jetzt ist doch alles in butter und trotzdem kommt nix treiberseitig.darüber sollte pcgh mal was texten damit amd das mitkriegt.mikroruckler ist dagegen eine lapalie für mich persöhnlich.
 
Zuletzt bearbeitet:
Du scheinst es nicht zu begreifen. Es geht darum, das euch vorgeschrieben wird was ihr nehmen dürft und was nicht. Ich möchte das aber bitte selbst entscheiden dürfen und nicht das was Ati einem vorschreibt! Wenn ich Supersampling wähle dann möchte es auch so sein, genauso verhält es sich auch mit den anderen AA Modis,Optimierungen und MultiGPU Geschichten.

Ich begreife sehr wohl, um was es dir hier in einem ATI-Thread geht.

Ich kann dich in all deiner zur Schau gestellten Sorge um ATIs Bildqualität beruhigen. Ich bin mehr als zufrieden mit dem, was ATI mir zur Zeit dank CF 4870 bezüglich Bildqualität bietet. Und wenn mal ein Game von den Devs so entwickelt wurde, dass kein Edge-Detect-AA greift, dann bin ich durchaus mit 8xMSAA zufrieden.
 
Wenn AA nur in-game einstellbar ist, dann stell im CCC Edge-Detect ein und mach bei AA ein Häkchen für "Use application settings". So hat das ATI-Mitarbeiter Eric Demer, auch unter sireric bekannt, erklärt. Er sollte es eigentlich wissen.

habs an 19 Games probiert, hat leider nicht mal bei der Hälfte geklappt :heul:.

Lustigerweise funzt EDAA noch weniger, wenn man AA über Treiber forciert. Irgendwie eigenartig wie der Treiber performt :hmm:
 
:stupid: bei 275W TDP oder was :rolleyes:

Eine HD4870 zieht 130W nur die Karte, denn rest kannst dir selbst ausrechnen.

gaeyfb0kc.jpg

Ich hab mich auf den CB test bezogen. wenn ein sys mit 2 HD4870 über 511W braucht und das gleiche sytem mit einr Karte 333W, dann hab ich da ne different von 182W. Ne x2 braucht in etwa das doppelte wie ne normale 4870 und deshalb kommt man auf ca 350W pro karte. Ich kann also nur wiedergeben, was da so steht. in diesem review (seite 17) kommt man auf 347W für ne x2. Deine Ergebnisse sind von ner HD4870. Davon war ausserdem nicht die rede. und unter last braucht die trotzdem weit mehr als 130W gesamt...

Big powahhhh needed for a Crossfire X setup, as we can see above. We wouldn’t recommend anything under a decent quality 1 KW power supply. Our 1500 Watt Thermaltake power supply absolutely ran like a dream with the cards.

Was hab ich gesagt?! ;)
 
Zuletzt bearbeitet:
@Neo4ever

Sagen dir die Begriffe Wirkungsgrad oder Effizienz in Bezug auf Netzteile etwas?
 
Zuletzt bearbeitet:
schade, schon wieder ein rohrkrepierer

muessen 2 GPUs draufschnallen
muessen 2x 1024mb ram draufschnallen damit man insgesamt 1gb zur verfuegung hat (teuer und ineffizient)
verbraucht wie sau
und das schlimmste, die mikroruckler sind nach wie vor vorhanden
dazu die ati typisch verbuggten treiber
langsam mache ich mir sorgen um amd/ati :(
 
Zuletzt bearbeitet:
klar sagen die mir was... Ich hoffe, Dir auch. :d Ist auch abhängig von der Belastung. ich schmeiss da mal so Begriffe wie Bronze, Silber und Gold in den Raum. ;) Ich hab selbst ein Seasonic m12 700W NT mit über 80% Wirkungsgrad. Ist auch schon ein wenig älter. Abgesehen davon, dass ich keinen 8-Pol stecker habe, würde ich dem NT nur eine X2 zumuten. Guckt eucht die Reviews an. die werden doch nicht alle mist schreiben. und 350W verbrauch nur für eine Karte, das ist mal ne Marke. und wenn du ein NT die ganze zeit auf Vollast laufen lässt, das macht es nicht lange mit. Wenn ich mit der aktuellen Config zocke, dann geht selbst dort die 12V schiene noch auf 11.7v runter.
 
muessen 2 GPUs draufschnallen

Naja, "können" wäre richtiger.
Ist halt eine günstige, genügsame und kühle GPU. Da kann man auch zwei von verbauen.
Mit zwei GT200 wirds schwieriger. ;)
Nvidia kann sowas im Moment nicht. ;)

muessen 2x 1024mb ram draufschnallen damit man insgesamt 1gb zur verfuegung hat (teuer und ineffizient)
verbraucht wie sau
und das schlimmste, die mikroruckler sind nach wie vor vorhanden
dazu die ati typisch verbuggten treiber
langsam mache ich mir sorgen um amd/ati :(

MR und das mit dem Speicher ist natürlich immer noch der alte Kram, da könnten die sich doch wirklich mal was einfallen lassen.
 
endweder haben manche was verpasst oder haben nie ne ati gehabt und labern jetzt nur müll

-ne x2 hatte schon immer 2 gpus davon abgesehen .... also zu punkt 1 :wall:
-NV machts auch nicht besser ... also was soll das gelaber ... das kannste dan dort im sammel thread dan auch schreiben :wall: weder 260er noch 280er
-efficent ist die karte allemal, evt nicht so wie 2 x 4870er aber dafür nur eine karte, wer also 1pcie hat kann sich freuen
-microruckler .... kann auch am user bzw an solchem monitor liegen ... habe jetzt schon lange ne x2 und schon 2 x 4850 und 2 x 4870er gehabt ... jetzt hab ich meine x2 wieder drin ... keine probleme :wall:
-ich mach mir um ati keine sorgen sondern um dich ... kein argument stimmt ... :wayne:

PS : effizent 70-75% ist doch ein guter schnit. manche games 95%



schade, schon wieder ein rohrkrepierer

muessen 2 GPUs draufschnallen
muessen 2x 1024mb ram draufschnallen damit man insgesamt 1gb zur verfuegung hat (teuer und ineffizient)
verbraucht wie sau
und das schlimmste, die mikroruckler sind nach wie vor vorhanden
dazu die ati typisch verbuggten treiber
langsam mache ich mir sorgen um amd/ati :(
 
Zuletzt bearbeitet:
:lol:
Ein rechner mit 2 karten braucht 778W
Der gleiche Rechner mit einer braucht 431W.
Wie viel braucht dann eine Karte? => Die Differenz, ergo 347W. :stupid:
 
:stupid: dich selber
ich hab mir ein paar reviews angesehen und mein fazit gezogen (und gepostet)
darf man das nicht mehr?

Wer ein 30" hat für ist die Karte durchaus nicht schlecht :cool: Ich bin nach wie vor auch nicht sooo überzeugt (für meine Anwendungen) von der X2 , aber ATI hat schon was fettes auf die Beine gestellt.
 
jaja 30" blah blah
damit du dich dann mit mikrorucklern rumschlagen darfst?
danke kenne ich von meinen (ehemaligen) 3870x2
 
Zuletzt bearbeitet:
Naja, "können" wäre richtiger.
Ist halt eine günstige, genügsame und kühle GPU. Da kann man auch zwei von verbauen.
Mit zwei GT200 wirds schwieriger. ;)
Nvidia kann sowas im Moment nicht. ;)

Naja mit zwei G200@GTX260 wäre es möglich, da der Verbrauch auch nicht viel höher als bei dem RV770XT ist und wenn die auf 55nm umstellen sollte das gehn.
Bloß auf ein PCB ist natürlich wieder schwierig für NV, da sie keine erfahrung haben auf dem Gebiet ^^
 
last mal gut sein oder...knapp 800watt im cf sagte ich doch. eine einzelne verbraucht dann halt 280-300 watt das sind bei 80% wirkungsgrad Nt dann gemessene 330-375 watt !?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh