Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Oberteufel schrieb:SO ich hol jetzt mal zum rundumschlag aus:
@ NV- Fanboys :maul:
Nach dem CB-Review zu urteilen ist die X1800xt klar die beste Karte.
Getestet wurde mit einem 4000+. War es nicht mal das Argument der Nvidioten ,dass die gtx sehr CPU limitiert ist?
wenn ich mir die benches ansehe... in 1280x1024 verliert die xt noch. in 1600x1200 auch noch knapp. Mit AA und AF sieht die gtx aber kein Land mehr. Na welche Karte ist hier CPU limitiert?
Die Bildqualität des R520 ist schon sehr beeindruckend. Winkelunabhäniges AF ... adaptive AA(welches sogar besser arbeitet als das von NV).
Und rumheulen ,dass FEAR vllt. ATI optimiert sein könnte.
Was ist denn mit Doom³ und Riddeck? wenn ich mit die doom3 benchmarks so anschau verliert die gt sogar teilweise gegen die xt.
In einem auf biegen und brechen optimierten NV-Spiel. Find ich doch ziemlich beachlich. Dagegen hat die GT in nem ATI spiel wie HL² keine Chance.
Aja und nochmal zu dem argument ,dass die gtx schneller oder nur minimal langsamer sein soll... bitte auch an die praxisnähe der benches denken. Welcher Freak kauft sich ne gtx oder ne xt und spielt ohne AF&AA ??? wär ja reine geldverbrennung
hab ich nur das gefühl,dass manche einfach sauer sind ,dass ihre gtx nicht mehr die schnellste karte ist und reden deshalb die x1800xt schlecht oder wie?
klar die x1800xt hat auch ihre macken. den kühler find ich gar net mal so schlimm... single slot wäre zwar besser ,aber ich hab auchn silencer auf meinr graka
viel mehr ärgert mich der hohe idle stromverbrauch. unter last ist die karte ja noch auf 6800 ulta niveau.
an der lautstärke der x1800xt gibt es nichts auszusetzen.
Aber was hat ATI denn mit den andern Kühlern verbrochen?
das ist unter aller sau! vor allem die 1600xt.
Warum können die net einfach den leisen x800xt kühler draufhauen..der hat sich damals doch gut bewährt
hoffen wirs mal ,dass hersteller wie MSI , sapphire etc. eigene Kühlkonzepte entwickeln!
Zur Leistung der XL bin ich etwas unentschlossen wie ich sie beurteile. Der Kühler ist Rotz. Die Leistung ist zwar OK ,aber der Preis muss noch deutlich runter. Wenn die Karte auf GT Niveau sein will ,muss sie das auch preislich! Also 350€ für ne 256mb XL sonst kann ATI ihr 2. Top Modell vergessen!
Also mal argumente bringen ,statt "ATI oder NV suxx0r oder rul0rt!!!!!11111einself"
die x1800xt ist die Beste Karte, auf Kosten von Idle Stromverbrauch und Wärmeentwicklung.dem steht ein guter Kühler entgegen.
die XL ist ne gute schnelle karte aber kommt grade mal so auf GT niveau mit AF und AA,ohne sogar schlechter.
Die Preise werden wir ja dann in den Shops sehen. Zu teure Preise würden ATI Ruf aber weiter schädigen.
Ich werd mal sehn wie sich die Preise entwickeln und wenn schon denn schon zur ner 256mb XT greifen ,wenn sie 400€ kostet. Dafür hab ich dann auch 2,5Jahre ne gute Karte.
MfG ... hel
Oberteufel schrieb:SO ich hol jetzt mal zum rundumschlag aus:
@ NV- Fanboys :maul:
Nach dem CB-Review zu urteilen ist die X1800xt klar die beste Karte.
Getestet wurde mit einem 4000+. War es nicht mal das Argument der Nvidioten ,dass die gtx sehr CPU limitiert ist?
wenn ich mir die benches ansehe... in 1280x1024 verliert die xt noch. in 1600x1200 auch noch knapp. Mit AA und AF sieht die gtx aber kein Land mehr. Na welche Karte ist hier CPU limitiert?
Die Bildqualität des R520 ist schon sehr beeindruckend. Winkelunabhäniges AF ... adaptive AA(welches sogar besser arbeitet als das von NV).
Und rumheulen ,dass FEAR vllt. ATI optimiert sein könnte.
Was ist denn mit Doom³ und Riddeck? wenn ich mit die doom3 benchmarks so anschau verliert die gt sogar teilweise gegen die xt.
In einem auf biegen und brechen optimierten NV-Spiel. Find ich doch ziemlich beachlich. Dagegen hat die GT in nem ATI spiel wie HL² keine Chance.
Aja und nochmal zu dem argument ,dass die gtx schneller oder nur minimal langsamer sein soll... bitte auch an die praxisnähe der benches denken. Welcher Freak kauft sich ne gtx oder ne xt und spielt ohne AF&AA ??? wär ja reine geldverbrennung
hab ich nur das gefühl,dass manche einfach sauer sind ,dass ihre gtx nicht mehr die schnellste karte ist und reden deshalb die x1800xt schlecht oder wie?
klar die x1800xt hat auch ihre macken. den kühler find ich gar net mal so schlimm... single slot wäre zwar besser ,aber ich hab auchn silencer auf meinr graka
viel mehr ärgert mich der hohe idle stromverbrauch. unter last ist die karte ja noch auf 6800 ulta niveau.
an der lautstärke der x1800xt gibt es nichts auszusetzen.
Aber was hat ATI denn mit den andern Kühlern verbrochen?
das ist unter aller sau! vor allem die 1600xt.
Warum können die net einfach den leisen x800xt kühler draufhauen..der hat sich damals doch gut bewährt
hoffen wirs mal ,dass hersteller wie MSI , sapphire etc. eigene Kühlkonzepte entwickeln!
Zur Leistung der XL bin ich etwas unentschlossen wie ich sie beurteile. Der Kühler ist Rotz. Die Leistung ist zwar OK ,aber der Preis muss noch deutlich runter. Wenn die Karte auf GT Niveau sein will ,muss sie das auch preislich! Also 350€ für ne 256mb XL sonst kann ATI ihr 2. Top Modell vergessen!
Also mal argumente bringen ,statt "ATI oder NV suxx0r oder rul0rt!!!!!11111einself"
die x1800xt ist die Beste Karte, auf Kosten von Idle Stromverbrauch und Wärmeentwicklung.dem steht ein guter Kühler entgegen.
die XL ist ne gute schnelle karte aber kommt grade mal so auf GT niveau mit AF und AA,ohne sogar schlechter.
Die Preise werden wir ja dann in den Shops sehen. Zu teure Preise würden ATI Ruf aber weiter schädigen.
Ich werd mal sehn wie sich die Preise entwickeln und wenn schon denn schon zur ner 256mb XT greifen ,wenn sie 400€ kostet. Dafür hab ich dann auch 2,5Jahre ne gute Karte.
MfG ... hel
Koyote008 schrieb:Eins vorweg , ich bin kein Nvidia - Fanboy .
Was Du hier geschriebn hast ist Kontra der Reviews , der R520 hat weder die BQ-Krone , noch hat er im unteren Bereich mehr Frames (was man übrigens Slow-Downs nennt) ,
und wenn Du von Krone sprichst , sprichst Du in allen Bereichen von Nvidia , Zwecks SLI , Du gehst überhaupt von zukünftigen Single Karten aus. Und schlichtweg falsch.
In einem gebe ich Dir Recht , sehr gut sind beide , und 5 FPS spielen garkeine Geige.
Und klar kann man mehr Geld für ne schlechtere Karte ausgeben , und man kann auch mehr Lautstärke ertragen und mehr Stromgeld bezahlen , für eine Karte mit der unobjektiv besseren Bildqualität.
Ich denke Du bist hier der grosse Fanboy
Oberteufel schrieb:Aja und nochmal zu dem argument ,dass die gtx schneller oder nur minimal langsamer sein soll... bitte auch an die praxisnähe der benches denken. Welcher Freak kauft sich ne gtx oder ne xt und spielt ohne AF&AA ??? wär ja reine geldverbrennung
Eagleone19 schrieb:Alles was du sagst mag stimmen oder auch ned ..... , nur im verhältnis gesehn ist ATI schlechter , guck mal wan NV relaset hat und wann ATI
ATI hatte so eion Zeitvorsprung da hätte was viel gescheiteres rauskommen MÜSSEN.....Sogesehn ist ATI hier Klarer Verlierer! Wen der G80 Kommt kann ATI wieder einpacken.....
thade2001 schrieb:du denkst nicht logisch. ATI hatte Probleme mit dem R520 in der Fertigung. Normalerweise hätte sie 24 oder mehr Pipes. Und dann sähs ja schon sehr schlecht aus für den G70. Es ist ja eh schon ein Wunder, dass eine 16 Pipes Karte so gut abschneidet, ja teilweise deutlich schneller ist. Der R580 wird Das, was der R520 hätte werden sollen.
Denkt doch mal an 2003 mit NV30 und NV35. So wirds auch in etwa laufen.
BildqualitätWuitz2004 schrieb:was heist BQ?
CB schrieb:erstmals den 90-nm-Prozess von TSMC, der nicht nur höhere Taktraten, sondern auch einen niedrigeren Stromverbrauch ermöglichen soll. Jener wird darüber hinaus durch eine erhöhte Flexibilität des R5x0 erreicht: Bei jenem ist es kein Problem, nicht mehr nur einzelne Pixel-Pipelines zu deaktivieren, ebenso lassen sich die Vertex-Shader, TMUs, ROPs und weitere Einheiten problemlos abschalten, um so ein- und denselben Chip für langsamere Grafikchips zu verwenden. Zudem verfügt der Chip über die Fähigkeit, sich im 2D-Modus herunterzutakten und zudem den gesamten 3D-Part zu deaktivieren, womit der Stromverbrauch unter der Windows-Oberfläche und 2D-Anwendungen stark gesenkt werden soll.
actionB52 schrieb:hm,
mal ganz ehrlich, das ist der unsachliste thread, den ich bis jetzt in diversen foren gelesen habe.
vielleicht sollten alle fanboys erstmal ne runde schlafen gehen und morgen wieder kommen.
grüße
Koyote008 schrieb:@ Oberteufel
Leistung & BQ finde ich die XT TOP , auch wenn ich mehr erwartet hätte , ich bin davon ausgegangen , ich wiederhole , ich bin davon ausgegangen das Sie 20% schneller ist wie die GTX , im Grunde ist Sie etwas langsamer wenn wir von der 256MB Karte sprechen.
Interessiert hat mich eh nur die XT mit 512MB , und der Speicher macht in einigen Games halt was aus , so das ich die XT 512 MB vor der GTX sehe , so für mich eben.
Allerdings bei dem Preis 550€ und Leistungsaufnahme & Lautstärke führt mich kein Weg zu Crossfire , zumal die Boards & Master-Karten wesentlich teurer sind.
Wenn ich ne einzelne Karte nehmen würde , hätte ich auch Probleme zu entscheiden ,
zwischen ner XT 512 MB oder ner GTX Quaddro (490/1250) & extrem kalt & leise. Zumal die Quaddro ca. 50€ weniger kostet.
Gruss Koyote008