ATi R520 kommt am 26. Juli 2005

Status
Für weitere Antworten geschlossen.
jap... also habe selber ne x800xl weil mir die 6800gt vor 3monaten noch zu teuer war, und ich zwingend auf pcie umsteigen musst.... [rechner am arsch] ah ich mien in spätestens 1jahr gibts eh ne neue, und es gibt immer dumme die die karten noch für teuer geld kaufen ^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@piefke

Sicher unterstüzt BF2 die Auflösung 1280*1024 du Schlumpf :rolleyes:

Du klicken auf BF2 Verknupfung. Du dann bei Ziel Folgendes anhängen:
+menu 1 +fullscreen 1 +szx 1280 +szy 1024

Du verstehen :fresse:
 
Zuletzt bearbeitet:
immer langsam, im moment sind die einzigen spiele die mir auf die schnelle einfallen die von PS3 profitieren splinter cell und farcry,(earth 2160 vielleicht auch).

in der zukunft wird das bestimmt mehr, besondern wenn age of empires 3 kommt.
aber in battlefield 2 zb. sieht eine 6800 gegen eine x800 kein land!
das muss man ati auch sehr positiv gegenrechnen.
 
Piefke schrieb:
Hi,

wetten das in 1 jahr eure ATI dinger nicht mal gebraucht loszukriegen sind, weil kein PS 3.0
und ich werde meine 6600GT immer wieder los !

also alle ATI ohne PS 3.0 sind in spätestens 3 Monaten so veraltet, denn da kommen die neuem Weihnachtsgames, und was machen die ATI Fans dann, bis jetzt werden ja alle Games die das Brauchen oder unter GL besser Laufen schnell als schlecht abgehandelt, aber was dann ?
Die neuen games brauchen PS 3.0 oder 1.4 aber dazu brauchts dann keine X8xx XL Karten, das können dann die alten ohne PS 2.0 genauso gut !

Tja, nicht immer ist der schnellste der Beste !< so schnell kanns gehen !
und dann bringts auch nichts, wenn der R520 schneller ist, weil wenn ihr eure alten Teuren Karten nicht los werdet, ist der zuschlagspreis recht hoch für die R520 :lol: :lol: :lol: :lol:


Naja bis dato will deine Karte auch keiner, weil sie für Zocker immer uninteressanter wird. Is einfach zu schwach. Die 6800 Ultra ist meiner Meiner meinung nach sogar zu schwach für kommende Spiele :fresse:
 
mhh naja aber eine 6600gt is zulangsam um ps3.0 spiele flüssig darzustellen und bald auch zu langsam neue spiele dazustellen... ich glaube netmal dass man mit ner 66gt bf2 auf alles high flüssig zocken kann ^^
 
mRAC schrieb:
... ich glaube netmal dass man mit ner 66gt bf2 auf alles high flüssig zocken kann ^^


naja würd ich nicht sagen, die 9800 xt stell schon alles auf high sehr flüssig da
 
@ Piefke

Warum war wohl ne X 850 XT PE bei Splinter Sell die schnellste Karte, und das bei einem Game mit 3.0 Shader ? Und nicht eine 6600 Gt oder Ultra ? Hast Du vielleicht auch ne Antwort auf diese Frage ?

mfg
 
Also ist es doch nicht ein muss ne Karte mit 3.0 Shader zu haben um sollche Games zocken zu können. :drool:

Dazu wäre noch zu sagen das der ATI Shader 2.0b ein Bestandteil des 3.0 Shader ist, und so schlecht sieht das ganze auch nicht aus wie Du es uns die ganze Zeit da erzählst. :haha:

Bei Ego Shoter schau ich sowiso nicht auf die Landschaft und da ist mir ne schnelle Karte wichtiger als 3.0 Shader oder den HDR Effekt. :lol:

mfg
 
SOLDIER schrieb:
Also ist es doch nicht ein muss ne Karte mit 3.0 Shader zu haben um sollche Games zocken zu können. :drool:

Dazu wäre noch zu sagen das der ATI Shader 2.0b ein Bestandteil des 3.0 Shader ist, und so schlecht sieht das ganze auch nicht aus wie Du es uns die ganze Zeit da erzählst. :haha:

Bei Ego Shoter schau ich sowiso nicht auf die Landschaft und da ist mir ne schnelle Karte wichtiger als 3.0 Shader oder den HDR Effekt. :lol:

mfg

Für Splinter Cell ist Shader 2.0b oder 2.0abcdefg gewöhnlicher Shader 2.0. Und die Shader 3.0 Effekte im direkten vergleich zu 2.0 in Splinter Cell sind für mich ein Kaufgrund.

Und natürlich ist mir klar das Duke Nukem 3D genauso gut aussieht wie Half-Life 2, man schaut ja eh nicht auf die Landschaft.
:wink:
 
SOLDIER schrieb:
Also ist es doch nicht ein muss ne Karte mit 3.0 Shader zu haben um sollche Games zocken zu können. :drool:

Dazu wäre noch zu sagen das der ATI Shader 2.0b ein Bestandteil des 3.0 Shader ist, und so schlecht sieht das ganze auch nicht aus wie Du es uns die ganze Zeit da erzählst. :haha:

Bei Ego Shoter schau ich sowiso nicht auf die Landschaft und da ist mir ne schnelle Karte wichtiger als 3.0 Shader oder den HDR Effekt. :lol:

mfg
HDR musste ja nich einstellen.
2.b macht nix aus in zukunft werden spiele entweder shader 3.0 benötigen oder auf 1.4 rückkompatibilität programmiert da es zu zeit aufwenid ist auch noch für shader 2.0 zu optimieren. monat für monat kannste die x8xx serie mehr vergessen das ist fakt
 
Night<eye> schrieb:
HDR musste ja nich einstellen.
2.b macht nix aus in zukunft werden spiele entweder shader 3.0 benötigen oder auf 1.4 rückkompatibilität programmiert da es zu zeit aufwenid ist auch noch für shader 2.0 zu optimieren. monat für monat kannste die x8xx serie mehr vergessen das ist fakt

Wenn HDR bzw. SM 3.0 im großen Umfang Einzug hält kann man aber die 6800 noch schneller vergessen ;) Diese angekündigten Spiele werden schon ohne HDR ordentlich Perfomance brauchen und dann noch HDR einschalten ... Das schafft keine 6800 GT oder Ultra. (höchstens im Doppelpack)
Btw.: die Spiele, die es jetzt gibt rechtfertigen ja nicht unbedingt SM3 und HDR- Fähigkeit als ein "must have" zu deklarieren. Wenn das in Zukunft mehr als ein experimentelles Thema ist und in der Großzahl von Spielen verfügbar ist, dann gibt es schon lange der R520 oder sogar den 580. Womit wir wieder beim Thema wären.
:btt:
 
also im moment muss man kein shader 3.0 haben hab ja auch noch ne fx5800
und die 6800Gt ist eh die midrange karte von Nvidia wieso vergleichste mid range karten mit ATI,s high end modellen ?
der neue mid range chip von Nvidia soll nähmlich den speed einer 6800GT haben.
also die 7800GTX mit shader 3.0 und HDR ist wohl die optimale karte zur zeit
 
jpr schrieb:
Wenn HDR bzw. SM 3.0 im großen Umfang Einzug hält kann man aber die 6800 noch schneller vergessen ;) Diese angekündigten Spiele werden schon ohne HDR ordentlich Perfomance brauchen und dann noch HDR einschalten ... Das schafft keine 6800 GT oder Ultra. (höchstens im Doppelpack)
Btw.: die Spiele, die es jetzt gibt rechtfertigen ja nicht unbedingt SM3 und HDR- Fähigkeit als ein "must have" zu deklarieren. Wenn das in Zukunft mehr als ein experimentelles Thema ist und in der Großzahl von Spielen verfügbar ist, dann gibt es schon lange der R520 oder sogar den 580. Womit wir wieder beim Thema wären.
:btt:

korrekt
 
jo die Mid range karten werden wohl mit HDR nicht ganz ausreichen aber ohne AF und AA geht das schon, ist wie damals bei der 6600GT
 
Gibts jetzt schon wieder was neues rund um den r520 ?!habt ihr was gehört/gelesen. um mal wieder back²topic zu kommen. :> ;)
 
Man sollte allerdings dazusagen, dass die 7800er Karten auch kein HDR und AA zur gleichen Zeit beherrschen. Also ist HDR für mich immer noch kein Kaufgrund. SM3.0 hingegen schon, und wer sagt, dass die 6800GT oder Ultra das nicht schafft, der hat wohl nen Senkel an der labilen Mütze. Mit 2xAA und Sm3.0 liefen Spiele wie SC3 oder FarCry wunderbar bei 1280x1024. Und den Unterschied kann man auch gut erkennen gegenüber SM2.0b.

Wie auch immer, solange ich kein einziges Review einer R520er Karte gesehen habe, pfeif ich auf ATI. Sollten die Dinger jedoch besser sein als NVidias G70 Karten, hab ich auch nix dagegen mir ne X900XT (oder wie auch immer die heißen werden) zu kaufen.
 
Hi,

wense denn kommt !

hoffe das ATI seine Kunden nicht wieder veräppelt, und wieder veraltete Techik drinn lässt !
und die sollten schnellstmöglich günstige PS3.0 karten um 150-350,-€ bringen.
weil nicht jeder kann sich ne X900XT leisten.
Das finde ich bei NVidia gut, da kommen schnell solche karten wie die 6600 oder 6200 karten nach !
 
komm ma wieder runter...
Alter, was hast du denn für ein prob, mann mann mann.
Wenn du dich aufregen willst, schau dir den letzten crossfire test an, wenn de was gegen ati hast,mann mann mann.
is ja schön das du gegen ati bist, musst aber nicht direkt heir so ne scheiße labbern....
so jetzt aber back²topic
 
genauso mit der FX5200 die war au ganz toll ne DIRECTX9 karte, ja nur leider is se bei allen effekten abgekackt ^^

und die GF4ti war zu schnell für DX8 :fresse:

gibts schon was neues übern R520. langsam müssten wir doch mit news überflutet werden, wenn sie bald released...
 
Hi,

also ich habe nichts gegen ATI !

finde nur nicht OK, das so viele ATI Fans immer auf NV rumhacken, und wenn NV dann mal was gutes neuer erfindet, ist das alles murks !

Das regt mich auf !

wenn ATI was gutes mit PS3.0 im preisbereich der 6600GT bringt binn ich sofort dabei !
 
hätte nv letztes jahr nicht SM3 eingeführt, würden wir uns jetzt nicht gegenseitig rund machen und keiner würde vergeblich auf den R520 warten ;)
 
ja siehse... wenn ati dann die ganz tolle technik rausbringt is ati wieda gut, naja is ja au egal ^^

wieso wir hacken net auf nvidia rum, aber schlicht und einfach ist SM3 für ne 6600serie murks... toll dassese hat, sc3 kannse evtl. noch dastellen, aber die neueren spiele, wir werden ja sehen, ersma atis neue serie abwarten und sehn wer dann oben bleibt/ist...

naja n kältebug bei soner highend kadde wie der 7800 is scho geil ^^
 
Piefke schrieb:
Hi,

also ich habe nichts gegen ATI !

finde nur nicht OK, das so viele ATI Fans immer auf NV rumhacken, und wenn NV dann mal was gutes neuer erfindet, ist das alles murks !

Das regt mich auf !

wenn ATI was gutes mit PS3.0 im preisbereich der 6600GT bringt binn ich sofort dabei !

Mir ist in diesen Forum nicht aufgefallen das alle auf NVIDIA rumhacken und weder die Leistung derer Karten als schlecht noch Shader 3.0 als Müll hinstellen.
Wenns bei anderen Foren so ist dann lass den Frust dort raus aber nicht hier.

@6600 GT
Aktuell ist die Leistung der Geforce 6600 GT sehr gut aber bei den zukünftigen Titeln wird garantiert auch die Geforce 6600 GT passen müssen - egal wie hoch die getaktet ist, das 128bit Interface wird in Zukunft limitieren.
Doch sage ich auch: Es wird sich zeigen was die Geforce 6600 GT bei den zukünftigen Titeln noch zu leisten vermark. ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh