ATI Radeon X1600 XT in ordnung um CoD2 und CSS zu Zocken!!

Fraest

Neuling
Thread Starter
Mitglied seit
15.11.2006
Beiträge
23
HI leutz ,

Will mir mal eine Grafikkarte zulegen ! habe die Radeon X1600 XT gesehen.
Könnt ihr mir sagen ob die gut ist?? :confused:

Schonmal DANKE!!!


Mfg Fraest
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Source wirst du sicherlich damit gut spielen können, bei Call of Duty 2 wird die Karte vermutlich an ihre Grenzen stoßen, wird also nicht so ohne weiteres auf hohen Einstellungen flüssig laufen.

MfG myTh

Edit: hier noch ein Benchmark dazu, allerdings mit ner x800

http://firingsquad.com/hardware/call_of_duty_2_performance_ati_nvidia/page2.asp

Edit2: Wäre noch interessant, wieviel Geld du ausgeben möchtest.
 
Zuletzt bearbeitet:
oder wirf mal nen blick auf eine x1950pro oder eine x1900gt ! sind gute karten, und kommen noch mit jedem spiel klar!
 
wieviel willst du denn allerhöchstens ausgeben?
 
am besten wär so 150€

Die X1600XT wurde inzwischen von ATI neu positioniert. Aus einer Karte der oberen Mittelklasse wurde die X1650PRO, eine Karte der unteren Mittelklasse, technisch sind die Modelle aber identisch (4 Pipes, 12 Shader), nur der Name ist halt anders. Damit einher geht eine Preissenkung auf 100,- Euro (bei 256MB), mehr sollte man dafür auch nicht ausgeben.

Beispiel: http://geizhals.at/eu/a224724.html

Für rund 150 Euro gibt es von ATI sowohl die X1650XT (RV560, 8 Pipes, 24 Shader), die im Bereich zwischen 120 und 150 Euro grade frisch auf den Markt kommt:

http://geizhals.at/eu/?fs=x1650xt&x=0&y=0&in=

oder leicht über 150 Euro die X1950PRO (RV570, 12 Pipes, 36 Shader), die aber erst ab 170 Euro (für das Asus-bulk-Modell, wobei man aber für Crossfire noch die Crossfire-Bridge extra nachkaufen muß) losgeht:

http://geizhals.at/eu/a220668.html

Retail mit besserer Ausstattung geht die X1950 eher in Richtung 200 Euro, ist dafür aber eine sehr leistungsfähige Karte.
 
kommt auch immer aufs rest system drauf an, da source sehr cpu lastig ist. aber wenn du ne entsprechende cpu hast wirds laufen. alternativ kannste dir ja die 7600GS bzw. GT anschauen.


also ich kann source auf 1280*1024 mit maximalen setting erst seitdem ich meine 5600 durch ne 6600gt ersetzt hab mit >50FPS zoggen... nonOC versteht sich ;) also soooooo cpu-lastig würde ich net sagen ^^

:btt:
in der preisklasse würde ich auf jeden fall auf nvidia setzen! einfach mehr leistung fürs geld und meist ne leisere kühlung, wegen des geringen stromverbrauchs(ne 7600GS lässt sich z.B. ohne weiteres passiv kühlen)

mfg
 
also ich kann source auf 1280*1024 mit maximalen setting erst seitdem ich meine 5600 durch ne 6600gt ersetzt hab mit >50FPS zoggen... nonOC versteht sich ;) also soooooo cpu-lastig würde ich net sagen ^^

:btt:
in der preisklasse würde ich auf jeden fall auf nvidia setzen! einfach mehr leistung fürs geld und meist ne leisere kühlung, wegen des geringen stromverbrauchs(ne 7600GS lässt sich z.B. ohne weiteres passiv kühlen)

mfg

Ne 5600 ist auch keine graka, sondern nen zustand!
Source ist CPU lastig!
Selbst mit deiner jetzigen Graka... zumal bei ner Auflösung von 1280x1024 meist eh die Graka limitiert.
Ok, bei der Sourceengine nicht mehr so extrem.

EDIT: In was für Auflösungen spielst denn so?
Würd die X950pro empfehlen! Sind grad mal 30 bis 40e überm Budget,aber hat auch 30% mehr Leistung!
 
Zuletzt bearbeitet:
ich spiuel in der auflösong zurzeit 1024 x 768 und wird wohl nächstes jahr auch noch so sein werd emir aber nächstes jahr eh nen neuen pc kaufen!!
Achja habe auch noch den DDR-400 also den normalen
thx schonmal für die antworten
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh