ATi R600/RV6xx *Infothread* (Part 3)

Status
Für weitere Antworten geschlossen.
ab man sieht zumindest was noch möglich ist!
wer weiß den schon von uns wie lange die treiber entwickler schon funktionierende hardware zum testen haben...ein paar änderungen durch einen respin und die sind wieder bei adam und eva..ich traue den jungs von ati auf jedenfall noch einiges zu...wie gesagt kurfristig sehe ich die karte zwischen gtx und gts..andere vor bzw. nachteile bleiben nat. bestehen..

Ja, so seh ich das auch, es zwar wird sicher nicht in allen Games so einen Schub geben, aber es wird sich künftig vermutlich noch positiv entwickeln und sich die 2900XT gegen die GTS behaupten. Die GTX glaube ich ist nicht erreichbar, wie es später unter DX10 aussieht wird sich erst zeigen müssen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denke durch einen Kauf der HD2900XT müssen bestimmt viele auch noch n neues NT kaufen. Mein BeQuiet packt auf jeden Fall keine 300 Watt graka. Da müsste schon n 500 Watt her...
 
Das ist ja gut und auch erfreulich, aber es ist schon komisch, das es nur in drei Spielen was bringt und es mit dem nachfolgenden Treiber schon wieder so ""schlecht" wie vorher aussieht.

was vlt. daran liegen könnte, das ein team den treiber auf speed trimmt und das andere bugs beseitigt und die sich in "naher" zukunft in der mitte treffen.

scheint auch so das man sich explizit jedes game vorknüpfen muß.wurde vor ein paar seiten schonmal von jemand angedeutet.


bezüglich der 2d verbrauchswerte.

wieso kommt eigentlich mal niemand auf die idee für den 2d betrieb nen billigen zusatztchip auf die karten zu pflanzen ala gma 950. dann könnte der 3d teil abgeschaltet werden bis er wieder gebraucht wird. würden da irgendwelche technischen unwägbarkeiten dagegen sprechen?
 
wieso kommt eigentlich mal niemand auf die idee für den 2d betrieb nen billigen zusatztchip auf die karten zu pflanzen ala gma 950. dann könnte der 3d teil abgeschaltet werden bis er wieder gebraucht wird. würden da irgendwelche technischen unwägbarkeiten dagegen sprechen?

Das machen die erst wenn der Strom so teuer ist das keiner mehr ihre Karten kauft, aber den gedanken hat ich auch (die gut alte 2d/3d Chip Kombo)

@NoGo: jo
 
mal eine frage nebenbei wird der r650 neue technische eigenschaften haben können oder nur die eigenschaften die sich aus dem verkleinerten herstellungsprozess ergeben

mfg
 
hmm... hab mir zwar nicht den ganzen Text durchgelesen.. aber ich bin schon etwas enttäuscht vom R600.
Bin kein Fanboy, sondern absolut neutral.

Aber man muss schon sehen, das ATI dieses mal nichts wirklich beeindruckendes geleistet hat :( Es kommt eine HD2900XT, die ein halbes Jahr mehr Entwicklung hinter sich hat, jedoch sich nicht von dem G80 absetzen kann (nichtmal gleichziehen). Es ist zwar zu hoffen, das neue Treiber noch einen Leistungszuwachs bringen, aber an Wunder glaube ich nicht :P

Vielleicht kommt ja bald eine HD2950XTX ^^

Naja, ich werde wohl warten bis die Preise vom G80 fallen (hoffentlich bald), und dann wieder auf NV setzen. (allein schon wegen der Lautstärke :P)
 
Das machen die erst wenn der Strom so teuer ist das keiner mehr ihre Karten kauft, aber den gedanken hat ich auch (die gut alte 2d/3d Chip Kombo)

/QUOTE]

:bigok: in moderner form ohne loopkabel ;). aber da jetzt amd mit im atiboot sitzt und es schonmal ankündigungen gab den verbrauch massiv zu senken ist rom noch nicht verloren.
vlt auch ein grund für nv sich darüber gedanken zu machen bzgl. des intel flirt´s.

wo solls den auch hinführen bei den nextgen´s ?....4 slotkühler und privates akw.

da seh ich schon die schlagzeile....kill0rspielspieler schuld am immer schneller vorranschreitenden klimawandel ...:angel:
 
ab man sieht zumindest was noch möglich ist!
wer weiß den schon von uns wie lange die treiber entwickler schon funktionierende hardware zum testen haben...ein paar änderungen durch einen respin und die sind wieder bei adam und eva..ich traue den jungs von ati auf jedenfall noch einiges zu...wie gesagt kurfristig sehe ich die karte zwischen gtx und gts..andere vor bzw. nachteile bleiben nat. bestehen..

Naja, was mich n bissel wundert ist, dass sich noch niemand auf diesen Part geworfen hat: "Allem Anschein nach hat ATi aber Bildqualität zu Gunsten von Leistung geopfert," (immer noch aus folgendem Link http://www.computerbase.de/news/tre...7/mai/ati_radeon_hd_2900_xt_treibervergleich/)

Das klingt für mich nach dieser Treibercheaterrei die NVidia aus Verzweiflung bei der GeforceFX gebracht hatte.

Naja, mal sehen ob der aktuelle Trend zum Stromsparen bei der nächsten Grakageneration auch bei A/A (wofür steht eigentlich dieses DAAMIT?) und Nvidia angekommen ist. Intel und AMD´s CPU Sparte haben es ja endlich gelernt.

Lustig finde ich in dem Zusammnhang noch den Deppen der hier behauptet hat das steigender Stromverbrauch völlig normal sei :drool:
 
Das machen die erst wenn der Strom so teuer ist das keiner mehr ihre Karten kauft, aber den gedanken hat ich auch (die gut alte 2d/3d Chip Kombo)

/QUOTE]

:bigok: in moderner form ohne loopkabel ;). aber da jetzt amd mit im atiboot sitzt und es schonmal ankündigungen gab den verbrauch massiv zu senken ist rom noch nicht verloren.
vlt auch ein grund für nv sich darüber gedanken zu machen bzgl. des intel flirt´s.

wo solls den auch hinführen bei den nextgen´s ?....4 slotkühler und privates akw.

da seh ich schon die schlagzeile....kill0rspielspieler schuld am immer schneller vorranschreitenden klimawandel ...:angel:

Schön wär's. Würde mir auch nix ausmachen wenn die Karte etwas langsamer wäre, solange der Stromverbrauch in erträglichen Maßen bleibt. Wäre super wenn AMD bei ATI da das Heft in die Hand nehmen würde in Punkto Energiehunger.

Desgleichen gilt natürlich für NVidia, derlei verschwenderischer Umgang mit Energie ist einfach nicht mehr zeitgemäß. Aber ich denke NVidia ging es damals hauptsächlich darum einen Kracher in Punkto Leistung auf den Markt zu bringen (was ihnen auch gelungen ist), da waren andere Aspekte erstmal zweitrangig.

Bin gespannt wie sich das entwickelt, aber ich werd wohl erstmal bei meiner 7900GT bleiben.
 
Hauptsache die Leistungsaufnahme nimmt ab. Das ist ja nicht mehr normal. Das Leistung nicht viel verschlingen muss, zeigen doch AMD und Intel mit den neuen Prozessoren.
 
Naja, was mich n bissel wundert ist, dass sich noch niemand auf diesen Part geworfen hat: "Allem Anschein nach hat ATi aber Bildqualität zu Gunsten von Leistung geopfert," (immer noch aus folgendem Link http://www.computerbase.de/news/tre...7/mai/ati_radeon_hd_2900_xt_treibervergleich/)

Das klingt für mich nach dieser Treibercheaterrei die NVidia aus Verzweiflung bei der GeforceFX gebracht hatte.

Naja, mal sehen ob der aktuelle Trend zum Stromsparen bei der nächsten Grakageneration auch bei A/A (wofür steht eigentlich dieses DAAMIT?) und Nvidia angekommen ist. Intel und AMD´s CPU Sparte haben es ja endlich gelernt.

Lustig finde ich in dem Zusammnhang noch den Deppen der hier behauptet hat das steigender Stromverbrauch völlig normal sei :drool:

Cheaten ist immer so eine Sache. Solange es nicht gleich schlechter aussieht, ist es doch ok, wenn sie "optimieren" :)

ATi konnte schon immer besser tricksen, wer erinnert sich nicht mehr an NV40 vs R420, der NV40 flimmerte trotz ausgeschalteten Optimierungen immer noch deutlich mehr als ATi mit ihrem AI, hier gehts zwar um dieses EATM, aber subjektiv gesehen, schauts nicht schlechter aus als Quali AAA, siehe Bilder im 3Dcenter.

Also so gesehen, cheatet ATi nur rein technisch, klingt komisch, ist aber so :)

Aber trotzdem ist es nicht die feine Englische, aber wenn am Ende das Gleiche dabei rum kommt, wen juckts?
 
Zuletzt bearbeitet:
Jeah nach 5 Jahren ist Nv mall wieder vorne Respekt.;)

Scheiße, dass ich sowas noch erlebe, häts nicht für möglich gehalten :bigok:

Sitzen einige 3dfx Ingeneure doch nicht so untätig in der Firma rum, Gruß an TM30 :shot:

P.S.: Nur ein kleiner Scherz, müsst ihr nicht lustig finden!
 
ATI cheatet mit dem transparenz AA. Sie nutzen ihren EATM Algorithmus, der auf Multisampling basiert, gegen NVs TSSAA. In wie weit das jetzt legitim ist, lässt sich schlecht sagen. Fest steht jedenfalls, dass EATM Details verändern kann, also anders darstellen kann, als es geplant war - das Verfahren ist ungenauer. Jedoch wird Flimmern genausogut unterdrückt wie beim TSSAA. ATI hat arbeitet schon seit einem Jahr daran, EATM zur Reife zu bringen. Es wird von vielen Spielern schon jetzt gerne genutzt, weil die Ergebnisse exzellent sind und EATM wenig Leistung kostet. Jedoch gab es bei der X1k Serie mit EATM immer Kompatibilitätsschwierigkeiten, die allerdings auch Hardwarebedingt sein können. Vllt. hat ATI EATM mit dem neuen Treiber soweit, dass es sinnvoll genutzt werden kann, was eine echte Innovation auf dem Markt wäre und dem R600 einen gewaltigen Vorteil ggü. der Konkurrenz bescheren könnte.
In wie weit man da wieder beim AF Cheatet, sei mal dahingestellt. 3DCenter jedenfalls bemerkten in ihrem Artikel, dass AI Standard AF qualitativ dem G80 HQ AF entspricht und AI off AF auf dem R600 schlicht perfekte Ergebnisse liefert. Mal sehen was sich da noch so tut - ich hoffe nicht, dass ATI da was dreht. Allerdings muss man dazu auch sagen, dass übertriebene AF Optimierungen bisher nur sehr wenig Leistungssteigerungen brachten, weswegen man bei heutiger Hardware ja davon abgerückt ist und ich das Ganze für unwahrscheinlich halte.
Alles in Allem, mit den neuen Treibern -> http://www.guru3d.com/article/Videocards/431/
finde ich die X2900XT sehr gelungen, wenn man bedenkt, dass sie gegen die 8800GTS ins Rennen geht, und nicht gegen die GTX.
Übrigens möchte ich anmerken, dass die Hardwareluxxreview gelinde gesagt arm ist. Man hat sich nicht mit AA beschäftigt, bei AF hat man sogar falsche Screenshots des AF Testers verwendet und seltsame Schlussfolgerungen gezogen.
 
Zuletzt bearbeitet:
da sieht man einen deutlichen unterschied

find ich auch, zumal auf dem ersten screen das große schild fehlt. das könnte aber mit den generellen probs zu tun haben die er mit den treibern hat ( fehlende spielfigur, gebäude etc in far cry).


trotzdem fällt sein fazit grade so aus ...

So ein bisschen Fazit von mir :)

Also 8xAA+AAA ist etwa von der Performance wie 16xBlur AA. Dafür sieht 16xBlur AA viel besser aus. Ich spiele da in 1024x768 und merke es gar nicht... dank BlurAA. Insgesamt unter 1024x768 ist 4x4SSAA flimmriger wie 8xAA Wide-tent (16xblur AA)


klar wenn das flimmern weg geschmiert wird

:hmm:
 
Zuletzt bearbeitet:
find ich auch, zumal auf dem ersten screen das große schild fehlt. das könnte aber mit den generellen probs zu tun haben die er mit den treibern hat ( fehlende spielfigur, gebäude etc in far cry).

öhm *hust* guck auf den boden :bigok:
 
Nicht falsch verstehen. Die Narrow und Wide CFAA Filter sind schlicht unbrauchbar und für die Tonne, die blurren mehr (wide) oder weniger (narrow) heftig. Die X2900 liefert nur mit ihrem normalen MSAA gute Ergebnisse. Aber CFAA mit Edge Detection und 8x MSAA liefert unübertroffene, scharfe Ergebnisse. Die Qualität ist unglaublich, die Kanten kann man als fließend abgestuft bezeichnen. Sowas gabs bisher noch nie in der Qualität als Hardwareimplementierung.
Beim Transparenz AA kann EATM gelcihgute Ergenisse liefern wie TSSAA.
Den 3DCenter Artikel würde ich übrigens dringend empfehlen, da er vieles aufklärt:
http://3dcenter.de/artikel/radeon_hd_2900_xt/
 
das 2te bild is für mich schärfer

hab ich jetzt was gewonnen? ^^

bei welchem treiber sin wir jetzt eigl., bin mitlerweile ganz durchnnander
 
...zumal auf dem ersten screen das große schild fehlt. das könnte aber mit den generellen probs zu tun haben die er mit den treibern hat ( fehlende spielfigur, gebäude etc in far cry).

Das Schild liegt doch da. ;-) Wurde anscheinend genauso wie der Zaunabschnitt umgefahren.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh