X1900XT oder 7900GTX was ist besser?

Naja, er hat trotzdem recht. Rohleistung hin oder her, bei Nvidia muß man auf hohe Qualität stellen um bei der BQ mit ATI mithalten zu können. HDR+AA fehlt ganz und die Sachen fürs Auge kosten bei Nvidia deutlich mehr performance....
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
dein polemisches rumlachen, kannst du im kindergarten lassen. verrat uns mal lieber, wo es nicht auffällt. ich kann nämlich nicht nachvollziehen, wie man den unterschied zw. AA an oder aus respektive WUAF an oder aus übersehen kann.



ich kann mir auch nicht vorstellen, dass jemand, der sich eine hochpreiskarte kauft, übersieht, mit welchen ausstattungen die karten geliefert werden bzw. dass dieser jemand zu dumm sein soll, HQAF im treiber zu aktivieren.

s1len7r0b schrieb:
Verbeite hier kein Schwachfug. Das stimmt überhaupt nicht. Also echt, einigen sollten lieber die Fresse halten

du, freund sonne, verbreitest hier schwachfug. die NV chips können bestenfalls geringstes SSAA (1x2 oder 2x1) in verbindung mit HDRr anwenden. es gibt genau eine anwendung, die das unterstützt-> AOE3. überall anders hast du mit HDRr im content keine aussicht auf AA.

der fachlich korrekte therminus muss lauten: kein multisampling AA auf ein FP16-rendertarget.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Verbeite hier kein Schwachfug. Das stimmt überhaupt nicht. Also echt, einigen sollten lieber die Fresse halten :fresse:

Jetzt hast du mich verwirrt....manno. klar war das AA und nicht AF...also nochmal zurück, HDR+AA ist richtig.
 
Zuletzt bearbeitet:
X1900XTX und 7900GTX sind im Moment auf dem gleichen Level (von der Performance her),
natürlich gibt es Games mit Vorteilen für ATI- oder Nvidia Karten,
aber im Großen und Ganzen sind die beiden Karten zurzeit gleich auf.

Meiner Meinung nach wird die X1900XTX aber in zukünftigen Games besser abschneiden,
da die Shaderleistung bei der ATI Karte um einiges höher ist als beim Nvidia Gegenstück.

... und wenn ich da an die Vergangenheit denke, konnte man mit ATI Karten länger zukünftige Games
mit besseren FPS Werten spielen - vorallem mit AA+AF.

z.B.:
9800Pro Vs. 5900Ultra
X850XT Vs. 6800Ultra

... muss jetzt nicht unbedingt auch bei X1900XTX Vs. 7900GTX so sein, aber aufgrund von der größeren Shaderleistung
sehe ich schon Vorteile auf Seiten der ATI Karte.

mfg
P0ng1
 
Zuletzt bearbeitet:
Is doch ganz einfach

Pro:

- Ati Karte is billiger um die 80-100 Euro
- Bildqualität is etwas besser
- HDR und AA gleichzeitig
- Spieleleistung gleich wie GTX

Kontra

- Stromverbrauch = Wärme
- Lüfter -> kann aber für 15 Euro getauscht werden

Was mir noch im Hinterkopf schwirrt war ein Problem mit einigen Teilen der 7900er Reihe so dass diese massenhaft ausfielen
Gibt aber auf der Gegenseite viele defekte Sapphire Karten die ausgetauscht werden müssen


mfg
 
Zuletzt bearbeitet:
Gelöschter Beitrag

Dieser Beitrag wurde auf Wunsch des Nutzers gelöscht.
 
Zuletzt bearbeitet:
um zu verstehen, dass HDRr eben nicht nur dieser blendeffekt ist, solltest du vielleicht mal call of juarez mit HDRr und ohne spielen. oder auch TES4. HDRr ist ein rendern mit erhöhtem kontrastumfang, was eine komplett realistische ausleuchtung einer szene ermöglicht.

im prinzip ist der modus den LC verwendet kein HDRr sondern eher ein MDRr. wenn da AA angewendet wird, ist es kein FP16..

wg. bildqualität blablabla (welch qualifizierte formulierung)
deine karte hat nunmal einen supergrottigen anisotropen filter, der matschtexturen neben scharfgefilterten platziert und ihr fehlt die möglichkeit FP16HDR mit MSAA zu kombinieren. ob das jetzt einem passt oder peng. man könnte jetzt noch zufügen, dass sie MSAA mit max. 4 pixeln realisieren kann (ati schafft 6) und dass ihr eingänge fehlen oder die möglichkeit die pixelshader für video-transkodierung zu verwenden.. aber hey: sie hat nen tollen lüfter ;) und ist schön billig (zumindest als GTO).


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Hallooooooo...Mädels....Ruhig bleiben...

Wenn ich Mod wäre würde ich diesen Sinnlosen Fred sofort schliessen..Ihr nervt.

Fanboy Rulers Sucks . . . :fresse:
 
ahy81xozgpy2mml75.jpg


Selbes Game und schicke Matschtexturen die man vor sich her schiebt...ist zwar von ner 6800 AFAIK hat sich sooo derb viel da aber nicht getan (hab ich gelesen, hab ja keine Nv mehr)
 
Gelöschter Beitrag

Dieser Beitrag wurde auf Wunsch des Nutzers gelöscht.
 
sun-man hat aber recht. an NVs darstellung bzgl. des filterns von texturen hat sich nichts geändert. man hat zwar mehr rohpower, als zu GF6 zeiten, aber die gleiche technik. das heisst: du kannst heute vielleicht den unschärfeeffekt mildern resp. nach hinten verschieben, erhöhst mit jeder AF stufe aber auch die winkelabhängigkeit, was also texturflimmern/grieseln erzeugt.

da man das mit MSAA nicht kaschieren kann, muss hybrides AA her. am besten 8xS. da hat man dann 4xMSAA für die polygonkanten und geringes SSAA für die texturen. leider ist die performance dann jenseits von gut und böse und man hat bestenfalls mildernd gewirkt. mit WUAF ist das trotzdem nicht vergleichbar - allein schon wg. der performance (NV braucht natürlich HQ und clamp via CP forciert).

unter HDRr ist dieser milderungseffekt wertlos, weil eben die "kein MSAA auf ein FP16 rendertarget" -restriktion vorliegt. dabei wäre es gerade beim erhöhrten kontrastumfang unter HDRr wünschenswert, AA zuschalten zu können. damit die kanten nicht übermäßig flimmern (siehe dazu TES4).

auf der NVidia-hardware fährt man mit geringen AF stufen (2x, 4x) + HQ + clamp am besten - hat dann aber ab einer bestimmten bildtiefe unschärfe, mit der man leben muss. alles oberhalb von 4x AF verursacht nur mehr winkelabhängigkeit, die man einfach erkennt, wenn man besseres gewohnt ist.

HDRr und kinderschuhe..? für wen zählt denn so ein argument? überall wo heute HDRr zum einsatz kommt, verwende ich HDR. auf NV und auf ATI.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Hmm also ich bin vor ner woche von einer x1800xt auf eine 7900 gto gewechselt, ich muß ganz ehrlich sagen das mir bildtechnisch nix aufgefallen ist nichts ist besser und auch nicht schlechter. Außer bei BF2 werden die schatten mit der geforce nun endlich korrekt dargestellt.
 
das thema hatten wir schon an anderer stelle. die bf2-schatten sind leider auf karten beider IHVs schlecht. NV bietet hier den vorteil, dass die shadowmap generell bilinear gefiltert wird.

von guten schatten ist bf2 ganz weit weg.



ATI



NV


(..)

mfg
tobi
 
alles schön und gut, auch ein Lob von mir an die jenigen, die sich hier Mühe geben das Niveau hier im Thread aufrecht zu erhalten!

nun muss ich mal folgende Frage in den Raum stellen:

Wenn man z.B. shooter spielt, wird man eher auf die BQ achten (normale Einstellungen, meine damit kein 1600x1200...) oder auf den Spielablauf?

Ich will mit der Frage jetzt nicht die Wichtigkeit der BQ in Frage stellen. Sie trägt maßgeblich zum Spielespaß bei! Aber ob die jeweilige Karte nun mehr AA als die andere schafft in sehr hohen Auflösungen, ist doch eigentlich piep-egal; die meisten User werden höchstwahrscheinlich nicht auf 1600 zocken, und da reichen die meisten Karten doch aus (auch höchste Details sind ausgeschlossen!) Wer doch solche extremen Anforderungen an seine Karte stellt, der soll bitte schön nicht hier in diesem Thread rum jammmern (kein Angriff!) sondern sich eine richtige Graka anschaffen (Crossfire oder Quad-SLI)
 
mag sein das NV kein HDR und AA auf die reihe bekommt, dafür aber HDR und SM3.0. und da gibt es bei ATI wohl probleme, siehe call of juarez.

ein kumpel hat zwei rechner, einen mit ne 6800GT und einen mit einer X1900XT und wir haben keine unterschiede bei standart auflösung gesehen. außerdem gehören wir auch zu den gamern, welche eh alles auf low zocken um die gegner besser zu sehen :shot: von daher ist die BQ für uns wayne ;)

wenn ich mir das geflame hier so anschaue, habe ich das gefühl auf einem CS server zu ideln :eek: omg

die ATI's habe eine bessere shaderleistung, dies ist unumstritten und daher zukunftssicherer. für mich aber kein argument, da ich die grakas nicht ewig nutzen möchte. aus diesem grund musste eine günstige DX9 karte her. und da bietet die 7900 GTO nun mal ein sehr geiles P/L verhältnis ^^

munter bleiben!
 
mag sein das NV kein HDR und AA auf die reihe bekommt, dafür aber HDR und SM3.0. und da gibt es bei ATI wohl probleme, siehe call of juarez.

Warum soll die ATI Karte kein "HDR + SM3.0" auf die Reihe bekommen?
Habe Call of Juarez gespielt, und mit einer X1900XT gibt es keine Probleme auch mit HDR + AA nicht - dank Chuck Patch!

mfg
P0ng1
 
Zuletzt bearbeitet:
Geilo Thread^^
Was ist für euch "besser"? Filter, FPS, Bildqualität? Jeder hat seine eigene Priorität diesbezüglich, will ich die "baba baaaaaaam" BQ, greif ich einfach zur ATI, spiele ich aber gern Q4 online und möchte die höchstmögliche Frameanzahl, kauf ich mir lieber eine GTX/GX2, zocke ich hingegen Source Games und möchte in hohen Res. gute FPS Werte dann auch lieber 'ne XTX...

Dieser Thread ist reines durcheinander und keiner hört sich an, was der andere schreibt, hier sind sehr viele gute Argumente und Fakten gefallen, aber das Gespamme übertrifft dies und macht diesen Thread nutzlos, also HF...

mfg Skip
 
Alleine schon durch den Namen des Threads: "X1900XT oder 7900GTX was ist besser?", ist ein "Streit" vorprogrammiert.

Es wird immer welche mit Pro ATI oder Pro Nvidia geben.

Meiner Meinung nach kann der Thread geschlossen werden - es bringt einfach nichts!

mfg
P0ng1
 
Zuletzt bearbeitet:
Warum soll die ATI Karte kein "HDR + SM3.0" auf die Reihe bekommen?
Habe Call of Juarez gespielt, und mit einer X1900XT gibt es keine Probleme auch mit HDR + AA nicht - dank Chuck Patch!

mfg
P0ng1

wie gesagt, ohne patch oder tricks klappt es eben nicht. und das ist imho ganz schön arm für ATI.

der ganze thread ist rofl, besonders aber der ersteller.

wie schon gesagt wurde, gibt es vor-und nachteile und jeder muss eben nach seiner priorität den kauf entscheiden.

plz close
 
Ab denn Catalyst 6.10 braucht man keine Tricks mehr um HDR-AA zu bekommen weils dann in Treiber mit drinn ist..
 
das ist mal eine gute nachricht von ATI ^^
Stimmt, ein aktuelles Game mit nem HDR Problem gegen ne ganze Kartenserie /mehr als eine Generation) mit fehlenden Möglichkeiten. Immerhin kann es bei ATI gepatched werden während man bei Nvidia nun auf die neue Serie hofft das die es können würde :xmas:
 
gibt suchfunktion und massig homepages im internet, die die performance vieler karten vergleichen:shot:

kannst dich ja bei computerbase.de mal umschauen!
 
klein aber dick...

wo ich das grad gelesen hab fiel mir allerdings AA+AF ein :d die werte passen nämlich auch

so nun aber :btt: :xmas:
 
Gelöschter Beitrag

Dieser Beitrag wurde auf Wunsch des Nutzers gelöscht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh