ATi R600/RV6xx *Infothread* (Part 3)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
BOAH :hail: :hail: :eek: :eek: von der Preis/Leistung her macht die X2900XT ja die G80 wirklich übelst platt. Da gibts nichts dran zu rütteln.

Einfach zu lecker, wenn ich das mal so ausdrücken darf :bigok:

Naja, BQ ist teilweise auch etwas vom Empfinden der Menschen abhängig...
Auf den bisherigen Screens ist ATi auf jedenfall, BQ mäßig, im Nachteil.
 
BOAH :hail: :hail: :eek: :eek: von der Preis/Leistung her macht die X2900XT ja die G80 wirklich übelst platt. Da gibts nichts dran zu rütteln.


Wenn es nachden Benchmarks von OCfs geht dann konnte das durchaus stimmen.Die X2900 XT liegt erstaunlicherweise knapp unter 8800 GTX
aob82e5g5xo2j3fht.jpg

aob82n7hma55y48xd.jpg

aob82xjmx1ge8cvu9.jpg


Der Riddick wert ist intressant.Normalerweise klar ne Nv Domäne.
 
Zuletzt bearbeitet:
Sehe es schon kommen, demnächst wird es nicht nur Netzteilempfehlungen der Grafikkartenhersteller geben, sondern auch noch eine Gehäuselüfterempfehlung.

Do not use the card under 500m³/h airflow :d
 
Das liegt daran das sie bei der GTX auch die Release Treiber verwendet haben und keine Aktuellen!

ASUS EN8800GTX AquaTank/HTDP/768M with Forceware 97.92
 
Zuletzt bearbeitet:
ich glaub ich klaue mir doch schon den 2900xt:xmas: :xmas: :xmas: :xmas: :eek: :eek:
braucht nur noch ne passende wakü!

öhh passt ne thermaltak toughpower mit 750watt??
 
Zuletzt bearbeitet:
Ach meinst denn unbedeuteten Wert ohne AA?Ob 90 oder 130 FPS ist doch egal.Viel intressanter sind da alle werte.....

PS:Launchtreiber gegen Launchtreiber,das nenn ich Fair.:shoot:
 
Zuletzt bearbeitet:
wenn die ATI Treiber wirklich noch so schlecht sind gehört ATI ein Tritt in den A****. Dass man in einem halben Jahr keinen neuen Chip entwickeln kann ist klar, aber für die Programmierung eines halbwegs ordentlichen Treibers war ja wohl genug Zeit :wall:
 
Wenn es nachden Benchmarks von OCfs geht dann konnte das durchaus stimmen.Die X2900 XT liegt erstaunlicherweise knapp unter 8800 GTX
http://666kb.com/i/aob82e5g5xo2j3fht.jpg[/img
[img]http://666kb.com/i/aob82n7hma55y48xd.jpg[/img
[img]http://666kb.com/i/aob82xjmx1ge8cvu9.jpg[/img

Der Riddick wert ist intressant.Normalerweise klar ne Nv Domäne.[/QUOTE]

Du kannst den Nvidia 8xQ AA Modus nicht mit dem der 2900 vergleichen...
 
Also in 1600x1200, würde ich die Unterschiede nicht als "knapp dran" bezeichnen... und wie Dukee schreibt, sind die BQ Settings dort nicht wirklich vergleichbar.

Aber immerwieder zu herrlich, was du so ablässt... immer wieder für ein Witzchen gut, dein dummes gelaber.
 
Ach meinst denn unbedeuteten Wert ohne AA?Ob 90 oder 130 FPS ist doch egal.Viel intressanter sind da alle werte.....

PS:Launchtreiber gegen Launchtreiber,das nenn ich Fair.:shoot:

lol fair wenn ati 6 monate später kommt haben sie mit den konsequenzen zu leben .... eine davon sind die top nvidia treiber :bigok:
 
Im Idle verbraucht die Karte knapp 5 Watt weniger als der G80, unter Volllast sind es "nur" 17 Watt mehr ,was etwa auf 160 Watt schließen lässt und damit ist der R600-Stromverbrauch noch unter meinen Schätzungen von 180 Watt!!!

Zu den Screenshots sage ich vorerst nichts, außer, dass niemand die BQ zu genau untersucht. Wenn man die beiden Karten mit der BQ anschaut, wirkt das Bild des R600 etwas schwammig.

Die Performance ist ungefähr unter 8800GTX-Niveau mit Tendez gleichzuschließen. Die Treiber sind gut, aber eben nicht auf Performancebasis. Da muss noch einiges getan werden. Bei Dx10 wird der R600 nochmals 10% oder mehr dazugewinnen und damit über die Geforce 8800GTX liegen.

Der Lüfter ist leiser als von der X1950XTX, jedoch lauter als von der 8800GTX.

Ansonsten mein vorläufiges Fazit:
Die Karte positioniert sich optimal mit den 360€. Sie wird ihre Käufer finden. Nach meiner Meinung ist sie der typische R520, jedoch noch viel extremer.
Die Karte wird in Zukunft ihre Stärken zeigen können, die schwächen bleiben und zwar nicht zu knapp.

mfg Nakai
 
Juuuuuuungs, aufwachen, die Tests sind alle für den Popo, wartet auf CB, die testen mit gleicher BQ, aktuellen Treibern und die testen richtig, den Werten konnte man schon immer vertrauen.

Vor dem CB-Test fälle ich noch kein Urteil!

Vor allem CB :fresse: die bis vor nem halben jahr noch mit nem 4000+ San Diego Single Core gebencht haben :haha:

Ne klar hast schon Recht, bloß ich geb mehr auf den hwluxx Test. CB passieren manchmal auch recht heftige Fehler muss ich sagen. Da öfters mal die BQ verschieden ist usw. ;)

Wann geht der hwluxx test morgen online ?

Denke schon vormittags oder doch erst um 15 Uhr ?
Weil das NDA ist ja jetzt hinfällig, nach und nach sprießen die Benches aus dem Boden.
 
Im Idle verbraucht die Karte knapp 5 Watt weniger als der G80, unter Volllast sind es "nur" 17 Watt mehr ,was etwa auf 160 Watt schließen lässt und damit ist der R600-Stromverbrauch noch unter meinen Schätzungen von 180 Watt!!!

Zu den Screenshots sage ich vorerst nichts, außer, dass niemand die BQ zu genau untersucht. Wenn man die beiden Karten mit der BQ anschaut, wirkt das Bild des R600 etwas schwammig.

Die Performance ist ungefähr unter 8800GTX-Niveau mit Tendez gleichzuschließen. Die Treiber sind gut, aber eben nicht auf Performancebasis. Da muss noch einiges getan werden. Bei Dx10 wird der R600 nochmals 10% oder mehr dazugewinnen und damit über die Geforce 8800GTX liegen.

Der Lüfter ist leiser als von der X1950XTX, jedoch lauter als von der 8800GTX.

Ansonsten mein vorläufiges Fazit:
Die Karte positioniert sich optimal mit den 360€. Sie wird ihre Käufer finden. Nach meiner Meinung ist sie der typische R520, jedoch noch viel extremer.
Die Karte wird in Zukunft ihre Stärken zeigen können, die schwächen bleiben und zwar nicht zu knapp.

mfg Nakai

Dem Fazit von dir kann ich mich 100% anschließen bis auf ne kleine Korrektur und zwar DX10. Bis DX10 gamez draußen sind gibt es von ATI und NV schon wieder was neues und somit sind diese Karten eh schon veraltet.
 
Zuletzt bearbeitet:
Und was passiert, wenn "Vertex und Geometrieberechnungen" weniger als 4 Komponenten verwenden?

Die Vertexshader sind nicht umsonst 4+1.



Der G80 hat nur 8x2 Recheneinheiten, die für 16 Pixel genau eine Komponente berechnen.

In jedem TCP sind 2 MIMD-Kanäle. In jedem dieser MIMD-Kanäle ist eine Vec8-ALU(SIMD) drin.
Imho sind es 16 MIMD-Kanäle.


Ein r600 benötigt 16 Recheneinheiten, um die für 16 Pixel 3 Komponenten zu berechnen. Zwar geschieht dies in einem Takt, dafür bleiben nur noch 48 Recheneinheiten übrig, bei nVidia ganze 7(!) Recheneinheiten.
Ausserdem gibt es einen anderen D3D10 Test, in dem die 8800GTX um Faktor 6 schneller ist.

Jeder Shader des R600 rechnet immer an einen Pixel. Gemäß dem Falle, dass alle Shader des R600 mit einer Vec3-Op ausgelastet werden, ebenso wie alle Shader des G80, so kommt der Schluß, dass der R600 hier besser ist.
Wenn man jetzt an Pixelberechnungen denkt, fällt auf, dass der G80 nach 3 Takten dann 128 Pixel ausspuckt. Der R600 kann 192 Pixel ausspucken.

In dem von mir angegebenen Test wurde fast ausschließlich die Geometrieperformance angeschaut. Und da sieht man wie schnell der R600 sein kann.
Jedoch wurde angemerkt, dass der G80 noch ein paar Probleme damit hat.
(Treiber!)
Im Schnitt sollte der R600 etwa 50 bis 100% schneller in Vertex- und Geoberechnungen sein.

mfg Nakai
 
Die schon ab umgerechnet 320€ bei toppreise.ch. Wird wohl eher billiger als 360€ :). Genau das Richtige für studentische Verhältnisse :)
 
Toppreise rockt die Scheisse fett, ausserdem: Die mir bekannten Händler sind noch gar nicht gelistet. Unter 500 CHF ist sie sehr wahrscheinlich gekauft.
 
Bis DX10 gamez draußen sind gibt es von ATI und NV schon wieder was neues und somit sind diese Karten eh schon veraltet.

Nur das NV immer nur auf derzeitiger Software plant, ATI ist zukunftorientierter.
Beides ist imho dumm, da der R600 in derzeitiger Software zu schwach ist und der G80 in zukünftiger Software abloost.
(Siehe G7x gegen R5x0.)

mfg Nakai
 
Frage an
@Wombat /
@Speedlimiter

ist das AA wirklich so schlecht bei der HD2900 XT, denn es sieht echt matschig aus. Oder kann man den Blur Filter deaktivieren um so eine normale mit dem G80 aufschliessende BQ zu erreichen.
Dies wäre natürlich für uns Kunden oder auch Nichtkunden sicherlich äußerst von Bedeutung.
Also seid ihr beide mal wieder gefragt.:xmas:
Bitte euer Statement dazu!
 
Die Vertexshader sind nicht umsonst 4+1.





In jedem TCP sind 2 MIMD-Kanäle. In jedem dieser MIMD-Kanäle ist eine Vec8-ALU(SIMD) drin.
Imho sind es 16 MIMD-Kanäle.




Jeder Shader des R600 rechnet immer an einen Pixel. Gemäß dem Falle, dass alle Shader des R600 mit einer Vec3-Op ausgelastet werden, ebenso wie alle Shader des G80, so kommt der Schluß, dass der R600 hier besser ist.
Wenn man jetzt an Pixelberechnungen denkt, fällt auf, dass der G80 nach 3 Takten dann 128 Pixel ausspuckt. Der R600 kann 192 Pixel ausspucken.

In dem von mir angegebenen Test wurde fast ausschließlich die Geometrieperformance angeschaut. Und da sieht man wie schnell der R600 sein kann.
Jedoch wurde angemerkt, dass der G80 noch ein paar Probleme damit hat.
(Treiber!)
Im Schnitt sollte der R600 etwa 50 bis 100% schneller in Vertex- und Geoberechnungen sein.

mfg Nakai

mit dem kleinen zusatz das der g80 mit 1350 mhz taktet und wahrscheinlich bei vec.3 noch relativ gleich auf sein wird oder!?
 
Frage an
@Wombat /
@Speedlimiter

ist das AA wirklich so schlecht bei der HD2900 XT, denn es sieht echt matschig aus. Oder kann man den Blur Filter deaktivieren um so eine normale mit dem G80 aufschliessende BQ zu erreichen.
Dies wäre natürlich für uns Kunden oder auch Nichtkunden sicherlich äußerst von Bedeutung.
Also seid ihr beide mal wieder gefragt.:xmas:
Bitte euer Statement dazu!

Also bei mir ist nix unscharf mit 8.38 :) . Aber wartet doch mal auf ein Review einer bekannten dt. Seite die hier schon genannt wurde. Allerdings weiss ich nicht genau, ob da schon die Werte aus den aktuellen Treiber mit einfließen. Aber einen Nachtest gibts bestimmt. Auf jeden Fall ist die AF-BQ mit dem .38 wieder besser. Diese scheiX sensationsgeilen Redakteure (@VR-Zone & Co.) , da kann man ja keinen vernünftigen Test erwarten.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh