X1800 (R520) *Sammelthread*

Zuletzt bearbeitet:
das gilt aber auch für die gtx ( wenn du die nicht sogar auch gemeint hast)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nils918634968 schrieb:
.... Selbst bei 1280x1024 lohnen die Karten in den meisten Spielen nicht.

mfg

Och doch, wer nen 19" TFT wie ich hat, kann nunmal nicht eine höhere Auflösung fahren.

Den Rest an Power kann man für Qualitysettings verballern.
 
kimble schrieb:
Och doch, wer nen 19" TFT wie ich hat, kann nunmal nicht eine höhere Auflösung fahren.

Den Rest an Power kann man für Qualitysettings verballern.
aus dem grund hab ich ne 7800 Gt drin da zZ nix besseres GIbt bis auf die GTX die aber wieder en paar € mehr kostet und es sich nicht lohn für die mehr furz leistung hab nen 17´tft und es reicht dicke !
 
Jo , verdammt , mir reicht eine 7800GT Extreme nicht ,

und ich habe "nur" einen 19" Flatron CRT (nur auf Kosten bezogen).

Japp soweit stimmen die Vorredner , 1280x1024 bzw. 1280x960 (scheint irgendwie "trendy" zu sein bei neueren Games) reicht völlig,

aber filtern muss schon sein (BQ) , bei mir leider ned genug.

Okay , wer nen 21" Zoll TFT sein Eigen nennt oder nen CRT ab 21" ,
kann 1600x1200 schon gut gebrauchen , und da wirds selbst kritisch bei vielen Games , wenn man noch anständig filtern möchte.

Check This Out , die GTX war noch nicht alles , und daher der R520 ne Enttäuschung.

Greetz Koyote008
 
Die 1280x960 sind die nicht trendy sonder die richtige auflösung in 4:3 verhältnis für ein CRT! wer ein CRT mit 1280x1024 betreibt hat ein falsches seitenverhältnis!

Das dann für TFT benutzer ärgerlich ich musste bei der SSam 2 demo x1024 in ner .ini verstellen weil es im game nur x960 gab!

Aber ich kann auch "nur" 1280x1024 und konnte das mit mein alten 17" CRT auch nur und hab trozdem zu der zeit immer die fetteste grakka gehabt (aber die 9800XT war die lezte dicke und ist meine jetztige ) dann spiel ich halt mit max AA und AF wo andere dann halt höhere auflösungen haben und dann mal frametrops im game was schon stört!

Ich will entlich mal user test hier sehen wann gibts die und wer holt sich eine?
 
Also mit so ner Karte hab ich schon den Anspruch, alle Spiele flüssig mit vollen Settings auf 1280*960 zu zocken. Da ich meinen CRT auch sonst immer neu justieren müsste, um die volle Fläche nutzen zu können, ist 1280*960 eben am besten. Mit der 9800Pro muss ich bei aktuellen Spielen großteils auf 1024*768 oder 800*600 zurückdrehen.

Übrigens haben TFTs auch ein 4:3 Verhältnis. 1280*1024 verzerrt dort auch das Bild. Mal ne Frage: Wie is man eigentlich dazu gekommen, diese bekloppten 960 Zeilen durch 1024 nur für den TFT zu ersetzen?
 
Zitat @ Haro

"Ich will entlich mal user test hier sehen wann gibts die und wer holt sich eine?"


Würde mich wirklich auch interessieren !

:bigok:

Greetz Koyote008
 
und ich bin schon mal gespannd ob der bei geizhals gelistete preis ab verfügbarkeit wieder hochgeht oder bei 400 euro bleibt sieht in meinen augen aus wie kunden fängerei und mehr nicht....wenn ich mich täuschen sollte ist es doch schon ein recht gutes angebot für die xl....
 
m_tree schrieb:
Also mit so ner Karte hab ich schon den Anspruch, alle Spiele flüssig mit vollen Settings auf 1280*960 zu zocken. Da ich meinen CRT auch sonst immer neu justieren müsste, um die volle Fläche nutzen zu können, ist 1280*960 eben am besten. Mit der 9800Pro muss ich bei aktuellen Spielen großteils auf 1024*768 oder 800*600 zurückdrehen.

Übrigens haben TFTs auch ein 4:3 Verhältnis. 1280*1024 verzerrt dort auch das Bild. Mal ne Frage: Wie is man eigentlich dazu gekommen, diese bekloppten 960 Zeilen durch 1024 nur für den TFT zu ersetzen?

Falsch TFTs haben nicht ganz 4:3 und haben eine physikalische auflösunf von 1280x1024! Also genau so viele pixel und dabei interpolirt nichts mehr ich hab diese auflösung auch aufm Desktop und an der schrieft würde man dies sehen aber alles ausgefüllt und nichts interpolirt also hat ein TFT 1280x1024! wenn ich zb 1280x960 einstelle interpolirt der wieder und nur in eine richtung das nicht schön:bigok:


Wie war nochmal der link zu dem forum wo macci postet?

mal sehen wei weit der ist mit dem takt ist X1800XL @ Zalman 7000 :fresse:
 
Hoi

Also ich muss jetzt auch mal was dazu sagen *gg*
Ist schon lustig ... immer wieder ATI gegen nVidia ;) jetzt wo die neuen ATI´s draussen sind geht wieder los.

Ich denke das beide schnelle Karten bauen brauche ich hier nicht zu betonen aber was mir doch immer wieder auffällt ist die Computerornanie die betriebrn wird ;)
bleibt doch mal realistisch.... ob ich jetzt 30 fps oder 50 oder 100 im Spiel habe ist doch völlig egal. ab 25 fps ist fürs menschliche auge eh der karren dicht :)

Ich war selber ein ganz großer nVidia Fan GF2, 3, 4.... das waren meine Karten und war immer zufrieden. Dann bekam ich meine erste ATI 9800 XT und was ich da sah auf dem Monitor *gg* war einfach überragend. Sollche Bildquali kannt ich nicht nicht von den GF-Karten.:)
Also an die BQ von ATI kommen die nVidia nicht ran das ist ganz klar. Ich habe mir den Test im Toms Hardw. mal durchgelesen und was die neue 1800XT leistet ist schon beeindruckend. Dort sieht die 7800 GTX nicht unbedingt gut aus und sie hat immerhin 24 Pipes contra ATI 16 Pipes ;)

Man kann es eh drehen wie man will ;) der eine mag NV der andere ATI (ich bevorzuge ATI) aber wenn ich mir die Preise anschaue wird mir einfach nur schlecht. Ich bleibe bei meiner x800GT und kann auch spielen und das sogar gut :) und die Geldbörse hat noch was über für andere Sachen *gg*

mfg Nordwurm
 
naja 30 oder 50 oder 100 ist schon argh aber wenn man mal sieht das die sich im 100er bereich trängeln und sich nichts nehmen dann ist das egal aber 30frames in nem schnellen shooter ist schon nicht so toll wenn der anderemit 100 rumrennt! und 30 find ich nicht so flüssig (je nach spiel bei langsammeren games wie D3 war das nicht so schlimm mal 20zu haben :lol: )

Aber das was ja eh nervt sind dei frame trops wenn mann immer 50 hat wer es ja nicht schlimm aber die karten haben ja durchschnittlich 100 aber brechen dann mal auf 30 oder so ein und dann merkt man schon ruckeln wegen der differenz!

Aber jetzt mal hand ans Herz von der leiszung ist es egal was man niemt und sachen wie winkelunabhäniges AF kann man auf dem G70 auch mit treiber regeln so wie man AAA (TAA bei NV) auf ner 9800 einstellen kann da es ne treiber sache ist!

In sachen BQ wird von NV sicher noch was kommen denn bis jetzt ist ATI da besser!
 
Jungs es geht hier um den R520 und nicht um die Auflösungen von TFT Displays oder wieviel FPS das menschliche Auge noch wahrnehmen kann ;)
 
kimble schrieb:
7800x1800afcomp4om3kb.gif

Für wie echt haltet ihr denn dieses Bild?
Kann das echt sein, dass der G70 so mies filtert; trotz 16x AF? Bei meiner alten X800XL habe ich so mieses Filtering nicht bemerkt und die hat den neuen Modi ja noch gar nicht.

WICHTIGE Frage: Es gab einen deutschen Reviewer, der die Vergleichsbenches zwischen G70 und R520 mit den neuen 80er Forceware Treibern durchgeführt hat.
Welche Page war das?
 
Zuletzt bearbeitet:
Jedi schrieb:
Für wie echt haltet ihr denn dieses Bild?
Kann das echt sein, dass der G70 so mies filtert; trotz 16x AF? Bei meiner alten X800XL habe ich so mieses Filtering nicht bemerkt und die hat den neuen Modi ja noch gar nicht.

WICHTIGE Frage: Es gab einen deutschen Reviewer, der die Vergleichsbenches zwischen G70 und R520 mit den neuen 80er Forceware Treibern durchgeführt hat.
Welche Page war das?

Was soll daran falsch sein? Die Filterqualität des G70 ist standard auch bescheidener als die der R430/480
 
Nordwurm schrieb:
Ich denke das beide schnelle Karten bauen brauche ich hier nicht zu betonen
So ist es:bigok:

Nordwurm schrieb:
ob ich jetzt 30 fps oder 50 oder 100 im Spiel habe ist doch völlig egal. ab 25 fps ist fürs menschliche auge eh der karren dicht :)
Also ob 30 oder 100, wer das nicht sieht, naja.....


Nordwurm schrieb:
Also an die BQ von ATI kommen die nVidia nicht ran das ist ganz klar.
So extreme schlechte BQ hatt NVidia nun auch wieder nicht....ich find da kaum einen unterschied
Nordwurm schrieb:
Ich habe mir den Test im Toms Hardw. mal durchgelesen und was die neue 1800XT leistet ist schon beeindruckend. Dort sieht die 7800 GTX nicht unbedingt gut aus und sie hat immerhin 24 Pipes contra ATI 16 Pipes ;)
Also erst mal ist der Vergleich der Pipes Quatsch, kommt hier ja auch keiner an und sagt-->stellt die NVidia mal auf den Takt der ATI;)
Ob nun Pipes oder Mhz ist relativ...
Ich frag mich nur, warum die alle nur ne Standar GTX getestet haben , warum nicht noch eine GTX Extreme.....

Nordwurm schrieb:
Man kann es eh drehen wie man will ;) der eine mag NV der andere ATI (ich bevorzuge ATI) aber wenn ich mir die Preise anschaue wird mir einfach nur schlecht.
Mir liegt auch ATI etwas lieber, aber die Preise/verfügbarkeit sind echt zu kotzen...
 
Zuletzt bearbeitet:
Koyote008 schrieb:
Jo , verdammt , mir reicht eine 7800GT Extreme nicht ,

und ich habe "nur" einen 19" Flatron CRT (nur auf Kosten bezogen).

Japp soweit stimmen die Vorredner , 1280x1024 bzw. 1280x960 (scheint irgendwie "trendy" zu sein bei neueren Games) reicht völlig,

aber filtern muss schon sein (BQ) , bei mir leider ned genug.

Okay , wer nen 21" Zoll TFT sein Eigen nennt oder nen CRT ab 21" ,
kann 1600x1200 schon gut gebrauchen , und da wirds selbst kritisch bei vielen Games , wenn man noch anständig filtern möchte.

Check This Out , die GTX war noch nicht alles , und daher der R520 ne Enttäuschung.

Greetz Koyote008

1920x1200 geht eigendlich mit 2AA/16AF auf HQ noch ganz ordentlich. habe bisher nur 2 spiele gehabt, die mit den einstellungen unspielbar waren und das sind fear und riddick. (spielbar heißt für mich mindestens 50 FPS im sp, im multi 125)
 
Wie war nochmal der Name der Seite, der die X1800er und G70 mit -80er Forceware- verglichen hat?
 
Eine GTX Extreme verballert die R520 XT auf jeden Fall mit den neuen Treibern!
Ich glaube nicht, dass NV schon das Gesamte Leistungspotenzial aus der GT/GTX heraus geholt hat!
Und Spiele, wo eine 512MB Karte 2* so schnell ist, wie eine 256 MB Karte sind meiner Ansicht nach von der Speicherverwaltung her nicht optimal Programmiert!
Da denke ich werden die Spieleprogrammierer noch einiges nachbessern müssen (z.B. Fear, da wurde keine X1800 XT mit 256 MB getestet sondern nur die mit 512).
 
Zuletzt bearbeitet:
Alle Spiele sind schlampig programmiert. wären doch nur alle wie KKrieger :love:

Aber die ATI ist auch noch nicht am maxium angekommen, nur BetaTreiber sind schlechter als offizielle Forceware von NV.
 
Philipp88 schrieb:
Und Spiele, wo eine 512MB Karte 2* so schnell ist, wie eine 256 MB Karte sind meiner Ansicht nach von der Speicherverwaltung her nicht optimal Programmiert!

Genau das denke ich auch.
 
Philipp88 schrieb:
Eine GTX Extreme verballert die R520 XT auf jeden Fall mit den neuen Treibern!
Ich glaube nicht, dass NV schon das Gesamte Leistungspotenzial aus der GT/GTX heraus geholt hat!
Und Spiele, wo eine 512MB Karte 2* so schnell ist, wie eine 256 MB Karte sind meiner Ansicht nach von der Speicherverwaltung her nicht optimal Programmiert!
Da denke ich werden die Spieleprogrammierer noch einiges nachbessern müssen (z.B. Fear, da wurde keine X1800 XT mit 256 MB getestet sondern nur die mit 512).

da kannst auch mit dem argument kommen, dass wenn fear bei ner x700pro ruckelt auch nicht optimal programmiert ist :rolleyes:
kein spiel ist optimal programmiert, aber wenn ati es nunmal geschafft hat ne karte mit 512MB rauszubringen und die auch noch sehr gut läuft, warum nicht?
soll nv halt auch karten mit 512MB rausbringen, bist dann glücklicher?
man kann ja schlecht als spieleprogrammiere das aussehen immer weiter verbessern ohne das die technik nachziehen muss ;)

und ich denke das die leitsungreservern der gtx mehr ausgeschöpft sind als die von der 1800xt, schließlich gibts die gtx ja auch schon viel länger und die xt hat noch kein normal user in der hand gehabt, also wirds da bestimmt noch einige bessere treiber geben ;)
 
Das frage ich mich auch. Wo die immer die Karten hernehmen.
Noch dazu haben die Karten nicht den gleichen Core, wie die der Verkaufsversionen.
Also wenn unsereins um so eine Karte bei ATI anfragt, dann würde man sicher keine bekommen.
 
sollche "OC-Guru's" bekommen immer schon vor den normal sterblichen neuartige sachen ;) die USA ist auch nicht um sonst das land der unbegrenzten möglichkeiten, macci wird direkt von ATI gesponsert, würde mich nicht wundern wenn der die karte auch schon hat.
 
Kampfwurst schrieb:
sollche "OC-Guru's" bekommen immer schon vor den normal sterblichen neuartige sachen ;) die USA ist auch nicht um sonst das land der unbegrenzten möglichkeiten, macci wird direkt von ATI gesponsert, würde mich nicht wundern wenn der die karte auch schon hat.

Macci hat die Karte schon und auch schon geclockt
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh