Ati R520 (3)

Status
Für weitere Antworten geschlossen.
SFVogt schrieb:
Ehrlich gesagt ist es wirklich lustig, wie die ATI Anhänger die neue High-End Karte umjubeln, obwohl es einfach nur nen Reinfall ist.

Ständig wird hier was geschrieben von " ach wie toll das doch für eine 16/8 Karte ist im Gegensatz zu 24/8 von nV" :rolleyes: Betrachtet man mal wieviel transistoren der Chip hat - mehr als der G70!!! - erkennt man mal das da ne Menge anderer Sachen mit eingebaut wurden um die Leistung zu steigern! Also ist der reine Piplenanzahl Vergleich etwas schwach! Auserdem ist die Karte ganze 195 GPU/300MHz RAM höher getaktet - was nicht zu vergessen ist!

Der Chip wird wärmer als der G70 trotz der 90nm und Komplettkupferkühlung. Die Karte ist lauter als der nV Pendant und verbraucht sogar mehr Strom! Was ist daran so schön??? Genau das haben alle immer der 68er Reihe vorgeworfen und nun soll das supi sein?! :hmm: alles klar :rolleyes:

Die Leistung ist für die Entwicklungszeit und ständigen Verschiebungen nicht zufrieden stellend. Computerbase hat die Karten bei glechwertiger Quality gebenscht und auser dem Benchmarkprogrammen ist die Leistung höchstens minimal besser - von absetzen kann nicht die Rede sein.

All das war genau umgedreht bei der letzten Generation und wurde verpöhnt - aber jetzt ist das natürlich auf einmal normal :lol:

Wieso soll die Karte ein Reinfall sein?

http://www.zdnet.de/enterprise/client/0,39023248,39137094,00.htm?051005183329

In dem Test sieht die aber ganz gut aus, würd ich mal sagen.

Ich habe übrigens Karten von beiden Herstellern, nicht das mir jetzt jemand einen Ati Fanboy unterjubeln will.

Ich finds gut, daß die Atis jetzt endlich da sind, dann kommt mal Bewegung bei den Preisen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Anarchy schrieb:
wenn keinen der verbrauch interessieren würde hätte Intel einiges mehr an Endkunden im Forum, dem ist aber nicht so ...

ich bitte dich

das einzige was hier interessiert sind FPS bei Benchmarks und nicht der Stromverbrauch
 
duKee schrieb:
die performance der x1800xt mit AAA ist ja mehr als nur enttäuschend, gar unspielbar...
AAA? Bitte um Erklärung :)

Und dukee wirst du dir so ne XT holen? Du bist wenigstens einer der wenigen hier, der auch den passenden Monitor für so High-End Karten hat ;)
--> wäre supi, wenn du die testen würdest, das wäre geil :bigok:

zum R580:
Weihnachten "wäre" er wohl gekommen, wenn der R520 im Sommer gekommen wäre, aber mal im Ernst, es glaubt doch hier niemand ernsthaft, dass der R580 1 Monat nach der XT vom R520 kommt oder???!! :confused:

und wer nicht ein absoluter crazy BQ Freak ist und dann aus Prinzip keine NV kauft, der hat imo die Fakten falsch verstanden. Derzeit ist die beste Kombo mit Sicherheit 7800GT SLI, bei Single eine GTX
--> der Hammer wäre, wenn NV so fies ist und den Preis von 2x7800GT auf das Niveau der XT bringt, das wäre krass :eek:, leisten können sie es sich mittlerweile sicher alle mal :)
 
@ anarchy:
sorry *liebguck*
aber was koyote an ATI feindlichen sätzen di letzte zeit rausgehauen hat :rolleyes:

soll kein angriff gegen dich sein :)

edit: ich hab noch nen CRT 19" .... 1600x1200.... ich komme :fresse:
 
Zuletzt bearbeitet:
hayato schrieb:
Nicht unbedingt, Anarchy. Denk nur an den Pentium M. ;)


Der P-M ist ein Notebook Chip und nun wirklich alles andere als der alltägliche Pentium, es mangelt an guten Boards mit aktuellen Chipsets ... oder haste schomal nen P-M mit SLI gespann gesehen ;)

-> gilt net.
 
image004.png

ist ganz anders gegenüber computerbase.de :hmm:
da lag die GTX vorne mit 2FPS

image002.png

und hier sinds komplett andere werte :hmm:
wobei die vermuteten ~9000 punkte hinkommen
 
Zuletzt bearbeitet:
VL125 schrieb:
Hallo
539€ für ne 256MB XT
599€ für 512MB XT
449€ für ne XL

oh man.... für dass Geld fahr ich lieber in Urlaub.
Wer glaubt das ATIs neue High-End Karte von Anfang an für den gleichen Preis der 7800GTX gibt, lebt wirklich in einer Traumwelt und sieht kleine ATI Karten durch die Luft fliegen :lol:

Fakt ist, ATI Karten werden sich vom Pries wohl deutlich unterscheiden zu den nV Pendanten - keine Mehrleistung besitzen, jedoch wärmer, lauter und höherer Stromverbrauch. Dazu kommst ein Dualslotkühler. Der Punkt der absolut besseren Grafikqualität ist auch nicht gegeben. Zu dem sind die Crossfirekarten nochmals teurer.

Im Vergleich zur 7800er ziehen die neuen ATI KArten den Kürzeren, wer dafür mehr zahlen will ist selber schuld :rolleyes:
 
ich bin irgendwie enttäuscht von ATI :-[

da dachte ich da kommt der oberhammer und was ist ...

also kann ich jetzt die 7800ultra entgültig von meiner liste steichen :heul: toll ati ganz toll :heuldoch:
 
Doohan schrieb:
ich bitte dich

das einzige was hier interessiert sind FPS bei Benchmarks und nicht der Stromverbrauch

Tja, wenn man Karten mit hgleicher leistung hat aber eine extrem Strom beim nixtun verballert nimmt man als informierter Kunde die Sparsame ... also 08-15 uninformiert käufer is das sicher kein argument, klar ... nur komplett folgenlos wird das nicht bleiben ...




Max0505 schrieb:
@ anarchy:
sorry *liebguck*
aber was koyote an ATI feindlichen sätzen di letzte zeit rausgehauen hat :rolleyes:

Damit sollt jetzt allerdings schluss sein ...
 
Jlagreen schrieb:
AAA? Bitte um Erklärung :)

Und dukee wirst du dir so ne XT holen? Du bist wenigstens einer der wenigen hier, der auch den passenden Monitor für so High-End Karten hat ;)
--> wäre supi, wenn du die testen würdest, das wäre geil :bigok:

aa2.png


AAA ist ATI's TRSAA

Die GTX bricht bei Far Cry mit TRSAA unter 4xAA gerade einmal um 6 % ein.

weiterhin scheint die Bildqualität doch nicht so toll zu sein, wie einst angepriesen, da man zwischen der 7800 GTX und der x1800XT keinen unterschied sieht. Jetzt muß man aber noch beachten, daß AAA mit der x1800xt unspielbar scheint, wenn jedes game so einbricht wie far cry, mit der 7800 GTX hingegen kann man es getrost immer aktivieren --> Pluspunkt BQ für die GTX.
Weiterhin gibt es bei der x1800xt viele Darstellungsfehler (bugs oder wirklichkeit? muß sich noch klären) wie zb.

46.png

krank

54.png

rechter zaun


ich werde deshalb bei der 7800 GTX bleiben und auf dessen nachfolger warten.
 
duKee schrieb:
http://www.hothardware.com/articleimages/Item734/aa2.png

AAA ist ATI's TRSAA

Die GTX bricht bei Far Cry mit TRSAA unter 4xAA gerade einmal um 6 % ein.

weiterhin scheint die Bildqualität doch nicht so toll zu sein, wie einst angepriesen, da man zwischen der 7800 GTX und der x1800XT keinen unterschied sieht. Jetzt muß man aber noch beachten, daß AAA mit der x1800xt unspielbar scheint, wenn jedes game so einbricht wie far cry, mit der 7800 GTX hingegen kann man es getrost immer aktivieren --> Pluspunkt BQ für die GTX.
Weiterhin gibt es bei der x1800xt viele Darstellungsfehler (bugs oder wirklichkeit? muß sich noch klären) wie zb.

http://pics.computerbase.de/artikel/495/46.png
krank

http://pics.computerbase.de/artikel/495/54.png
rechter zaun


ich werde deshalb bei der 7800 GTX bleiben und auf dessen nachfolger warten.

Das mit dem zaun is mir vorher noch gar nicht aufgefallen , lol sag ich da nur
 
als ob Nvidia keine darstellungsfehler hatte...
ich sag nur texturen....

und... ich seh keinen unterschied zwischen den bildern :hmm:
 
das sind treiberprobleme, ihr glaubt doch nicht echt dass das so bleibt. Wenn erstmal fette treiber rauskommen wirds richtig abgehn, yeah.
 
Max0505 schrieb:
als ob Nvidia keine darstellungsfehler hatte...
ich sag nur texturen....

und... ich seh keinen unterschied zwischen den bildern :hmm:
ich denke auch daß diese darstellungsfehler behoben werden, trotzdem ist die BQ insgesamt nicht besser, da man AAA anscheinend nicht nutzen kann, weil es gut 50 % performance zieht
 
Max0505 schrieb:
als ob Nvidia keine darstellungsfehler hatte...
ich sag nur texturen....

und... ich seh keinen unterschied zwischen den bildern :hmm:

- das is kein fehler, das is verdammt mieses AF ;)

- das untere hat kein AA, das fällt dir net auf :hmm: :fresse: ansonsten gibbet fehler beim linken aufbau vom Kran
 
duKee schrieb:
aa2.png


AAA ist ATI's TRSAA

Die GTX bricht bei Far Cry mit TRSAA unter 4xAA gerade einmal um 6 % ein.

weiterhin scheint die Bildqualität doch nicht so toll zu sein, wie einst angepriesen, da man zwischen der 7800 GTX und der x1800XT keinen unterschied sieht. Jetzt muß man aber noch beachten, daß AAA mit der x1800xt unspielbar scheint, wenn jedes game so einbricht wie far cry, mit der 7800 GTX hingegen kann man es getrost immer aktivieren --> Pluspunkt BQ für die GTX.
Weiterhin gibt es bei der x1800xt viele Darstellungsfehler (bugs oder wirklichkeit? muß sich noch klären) wie zb.


ich werde deshalb bei der 7800 GTX bleiben und auf dessen nachfolger warten.
aha, ok bei so viel "A" ist die GTX dann besser, dh. ATI ist bei AAA unspielbar, das ist ja kacke :(

zu den Bildfehlern würde ich sagen, dass es ein Treiberfehler ist, nur hoffentlich keine Optimierungen, denn wenn das entfernen Speed kostet, dann kann ATI echt einpacken...
 
Ich habe die Test bei Computer Base gelesen-wow was für ein Flop!:(

Die X1800XT kaum schneller als die 7800GTX aber 150 Euro teuere und sogar in manche Tests wird ein alte 6800 Ultra sogar schneller!:lol:

Besonderes die X1300/1600 Karten sind ein einziger Desaster:heul: -warte auf billigere 7800GTX oder die nächsten Generation-
 
also bezüglich AA und AF ist mir nix aufgefallen...

ich siel eh immer ohne :fresse:
 
Glurak100 schrieb:
-warte auf billigere 7800GTX oder die nächsten Generation-
also wenn du auf Midrange 7er anspielst, so befürchte ich langsam, dass da so schnell nix kommt, gibt für NV auch keinen Grund zu, da die X1600XT sich gerade so gegen ne deutlich günstiger GF6800 behaupten kann und für die X1800XL ist die 7800GT ja bestens gerüstet, daher braucht NV da grad nix rausbringen :(
 
@Anarchy

Das ATI hat sicher kein AA drinne +g+

Die Nvidia Stellt das Dreieck richtig dar über dem Kranhaus (Gitter)

Die ATI zeigt kein Gitter sondern durchgehende Balken , merkwürdig.

Bei schlechten AF geht es rein um Performancegewinn , Nvidia hats geschafft bis es flimmert (Ati mit Cat 5.8 auch) , und ATI berechnet Dinge nicht mit !

Das ATI Bild ist frustrierend finde ich , besser gehts es mit anderen Treiber , kostet aber wohl Performace !

Was aber besser bei der ATI ist , in der Ferne ist Sie schärfer , siehe Holzboden und andere Pics.

Gruss Koyote008
 
Koyote008 schrieb:
Was aber besser bei der ATI ist , in der Ferne ist Sie schärfer , siehe Holzboden und andere Pics.

Gruss Koyote008


Ja das is eben das bessere AF, wär ech cool wenn nVidia da bissen mehr zulassen würd was quali angeht ... aber se sorgen sich garantiert das dann immer mit Maximal Quali gebencht wird wobei der großteil der 08-15 user nichtmal weiß das man im treiber was verstellen kann an der Quali :fresse:
 
wo verdammt ist der fehler bei dem kran :hmm:
das am zaun hab ich schon erkannt :fresse:
und die schlechte kantenglättung am kran, aber wo ist da der extrem grosse patzer :hmm:

ich steh grad voll aufm schaluch....
 
also die ersten ati X1800xx modelle sind bei alternate und co aufgeführt ^^
 
@Anarchy

Du weisst ja das echtes unoptimiertes (Unwort) AF schon im 2:1 Verhältnis
eine Kartenleistung von 16:1 hätte , nämlich 50% ist die Basis .....

Ist aber gut das Du auftauchst , Deine Meinung ist den Usern halt was Wert.

Ich selbst finde das Bild Geforce6 / R520 hat sich gedreht , die Geforce6 hatte das bessere Bild im Hybrid Modus , war aber unspielbar , jetzt hat der R520 das bessere Bild und ist unspielbar im höchsten Setting.

Die Darstellungsfehler kommen glaube ich nur im AAA Modus , das Bild wird halt besser wenn er nicht da ist , so dumm iss das garnicht !

Japp , Nvidia könnte für bissl Performanceverlust nen makellosen Bild schaffen , und könnte es sich bei der Geforce7 auch leisten , Schade.

Gruss Koyote008
 
naja in etwa so schnell wie ne GTX aber..
1. teurer
2. sicher lauter
3. heisser
4. zieht mehr strom für in etwa die gleiche leistung
5. sicher nicht so gut zu ocen wie ne 7800GTX
 
Anarchy schrieb:
Da schauts aus als ob an den kanten ein grauer strich entlaggeht oder sowas ...


Kran ... das Dreieck aus Kranbalken- Geländer über dem Führerhaus ist von einem Metallgitter ummantelt (Zaunähnlich).

Die Nvidia stellt es dar , bei der ATI fehlt es , praktisch so wie beim Zaun , nur komplett.

Guckt mal , das sieht man doch sofort ! :angel:
 
Anarchy schrieb:
Da schauts aus als ob an den kanten ein grauer strich entlaggeht oder sowas ...
joa, das hab ich auch erkannt, aber sont nix weiter drin, oder?

ich denke, das kann man mit nem treiber beheben....

hab schon gedacht, ich wär blind XD

edit: verdammt, ich habs doch nicht gesehn :fresse:

edit²: kannstes mir mal bitte einzeichnen ;)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh