X1900XT oder 7900GTX was ist besser?

So um hier jetzt mal einiges klarzustellen:

Ich hab dieses Thema erstellt um einen kleinen Vergleich zu bekommen was von den aufgelisteten Grakas die beste ist. und nicht weil ich unbedingt das beste haben muss falls das hier einige denken. ICh hab ne X1900XT und bin zufrieden mit dem teil will auch keine andere, da ich a kein Geld habe und b es das gar nicht bringen würde. Des weiteren will ich mit diesem Thread niemanden ärgern, falls sich jemand angegriffen fühlt tut mir das Leid, denn das war nicht die Absicht dieses Threades. Ich brauch auch keine Bestätigung das mein Sys das beste is, denn es gibt immer irgendwo auf diesem Planni bessere Systeme ... .


So und da ich eigentlich nur Antworten auf meine FRage haben wollte und keine erneute Diskussion welcher Hersteller wohl besser ist, denn dass is nach meiner Ansicht keiner, sind beide gleich gut und hier viel zu viel gespammt wird Thread bitte closen. Danke.


Gruß, Spartan 177.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
leistungsmäßig ist die 7900GTX die bessere, von der qualität her die X1900XT aber keine von beiden ist die beste, da sind eher die GX2 und die X1950 angesprochen, du musst nurnoch entscheiden, was jetzt wichtiger ist aber alle zeigen von der standartisierten optik ein rendering an, also ist es vollständig überflüssig, für was du entscheidest, als standartuser steht dir alles offen

beantwortet das deine frage?
 
http://img111.imageshack.us/img111/9711/d1canals010001rm3.jpg


Und so sieht das heute mit einer 7900GTX aus! Vsync war on, also nicht über die niedrige Fps wundern. ;)




Siehst du das nicht? Was mich immer tierisch ankotzt, immer diese Leute, die ihre Karte verteidigen wollen :kotz:
 
das können genauso gut grafikbugs vom game sein, aber dieser strich ist mir noch nie aufgefallen

machst du jetzt nen tierischen aufriss wegen sonen kleinen bildfehler? :hwluxx:
 
@ Spartan 117

Sollche Threads hatten wir hier schon zu genüge im Graka Forum, das so nur die Gemüter erhitzen ist ganz klar. Im übrigen gibts fast zu allen Grakas Sammelthreads und Tests hier bei HWL. Also zuerst schauen und suchen, wenn nicht gefunden fragen, so kann man Seitenlange streitereien sich ersparen. ;)

mfg
 
das können genauso gut grafikbugs vom game sein, aber dieser strich ist mir noch nie aufgefallen

machst du jetzt nen tierischen aufriss wegen sonen kleinen bildfehler? :hwluxx:

Ist kein Bug, so schauts mit WU AF aus. Sicher stört nicht jeden, mich auch nicht so sehr, aber der Unterschied ist trotzdem da.

 
Gelöschter Beitrag

Dieser Beitrag wurde auf Wunsch des Nutzers gelöscht.
 
lol:lol:

Das ist der gottverdammte Schatten von dem komischen Mast auf der rechten Seite. :bigok:

Und was soll man sonst noch sehen, das die Textur nach 200m langsam unscharf wird, jo und was ist jetzt daran so schlimm ? Ich bin mir sicher dass deine X1900XT das viel besser macht. :(

Aber nochmal auf deine Aussagen zurück zukommen:

HDRR+AA kann sie nicht, ich hab das Gegenteil bewiesen.

Eine 7900GTX sieht immernoch so shice aus wie eine 6800, ich hab das Gegenteil bewiesen.

Hast du noch irgendsoein Schwachfug auf Lager ?

High Dynamic Range Rendering kann ein G71 nicht! Das wird hoffentlich der G80 können.

Fake HDRR ala Lost Toast kann fast jede Karte. Ansonsten großer großer Experte, widerlegt hast du überhaupt nichts.

€dit:

Wegen dem AF, nicht jeden stört das, aber der Unterschied ist deutlich ersichtlich!

€dit2:

HDRR zusammen mit AA natürlich :fresse:
 
Zuletzt bearbeitet:
zumal ich den vorgang, wie man den eindruck von s1len7r0b's shot einstellt geschildert habe. out-of-the-box sieht das genauso bescheiden aus, wie auf einer GF6.
die ati lässt bei besserem ergebnis einfach mehr leistung übrig und es sind auch keine tricks nötig, das ziel zu erreichen.
ich werde wohl mal testen müssen, ob die openGL-spielchen á la quake oder doom wirklich so bescheiden laufen, dass sich einige wegen zwei titeln lieber ne NV als ne ATI kaufen.
in prey hab ich jedenfalls keine leistungsdefizite bemerken können.. mal sehen, wie sich D3 und Q4 verhalten - muss ja grausig sein, dass man dafür in D3D spielen auf saubere darstellung verzichtet.

da hier ja gern von "leistung" gesprochen wird.. kennt einer der herren vielleicht den zusammenhang von arbeit und zeit im kontext zu dem begriff "leistung".. ?


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Gelöschter Beitrag

Dieser Beitrag wurde auf Wunsch des Nutzers gelöscht.
 
Zuletzt bearbeitet:
OpenGL und ATi ist seit langer Zeit kein Problem mehr, performancetechnisch. Vor 2 Jahren bei Doom3, da war man mit einem NV40 besser dran, von der Leistung. Aber ich habe mit ner X800XT PE überhaupt keine Probs gehabt.

Man kauft sich keine Grafikkarte wegen eines Spiels...
 
Gelöschter Beitrag

Dieser Beitrag wurde auf Wunsch des Nutzers gelöscht.
 
Zuletzt bearbeitet:
Das ist doch nur ein ungünstiger Winkel wegen der hervorragenden AAA Quali :d

Gib mal das Savegame von der Stelle, pls :)
 
ne robi kannst nicht vergleichen da das bild nicht exaxt aus dem gleichen winkel ist
das vergleichen alle bilder hier ist so blöd, man kann sie nur dann fair vergleichen wenn alle von dem gleichen punkt aus gemcacht wurden
 
glaube nicht, dass der winken so entscheidend ist. denn, ich kann aus verschiedenen winkeln den zaun betrachten und er wird nicht "unsichtbar" ...
 
Na ja, Jungs, ich finde den thread schon informativ und es fehlt nur ein bisschen, um ihn auch sinnvoll zu machen. Wenn man nämlich beide Chips mit der neuen Generation und besonders auf den Aspekt directx10 bezugnehmend vergleicht...
Ich habe momenatan auch ne gto bestellt, wegen dem guten Preis-Leistungsverhältnin, bin mir aber noch nicht so sicher, ob ich mir in einem jahr gleich wieder die nächste Karte hole... Die hier gennannten Aspekte Zukunftssicherheit durch Shaderdichte, haben mich zumindest nachdenklich gemacht...
 
Kann ich bitte das Savegame haben? Rückt es raus ihr Nvidianer :d
 
Und was soll man sonst noch sehen, das die Textur nach 200m langsam unscharf wird, jo und was ist jetzt daran so schlimm ? Ich bin mir sicher dass deine X1900XT das viel besser macht. :(

Eine 7900GTX sieht immernoch so shice aus wie eine 6800, ich hab das Gegenteil bewiesen.
Ich halte es hier mit dem Center.
Bei den Bildqualitätsfeatures ist allerdings die Radeon X1900 XTX dann doch wertbar vor der GeForce 7900 GTX zu sehen. Das mit dem R520-Chip eingeführte winkel-unabhängige Area-AF kann sowohl bezüglich der Bildqualität als auch der Performance voll überzeugen, nVidia hat hierzu derzeit kein Gegenangebot. Gleichzeitig erscheint ATIs 6x Anti-Aliasing als der "rundere" Kompromiß zwischen Leistungsanforderungen und Zugewinn an Bildqualität überhalb von 4x Anti-Aliasing zu sein: nVidias 8xS Anti-Aliasing hat zwar auch seine Vorteile, ist aber aufgrund seiner enormen Performanceanforderungen keinesfalls so breitflächig einsetzbar.

Und letztlich ermöglicht eben derzeit nur ATI Anti-Aliasing auch unter HDR-Rendering (selbst wenn es in Ausnahmen auch bei nVidia funktioniert). Dies mag derzeit noch keine erheblichen Auswirkungen haben, ist aber eben dennoch erwähnenswert, weil den (aktuellen) nVidia-Grafikkarten dieses Feature in zukünftigen Spielen möglicherweise schmerzlich fehlen wird.

Beweis es Dir halt selbst....oder geh an die Presse das nur Deine Karte sowas kann, dann verscherbel die für 2k€ bei Ebay zurück an Nvidia damit die auch herausbekommen wie sie das gemacht haben. Das Eigeneempfinden von BQ ist ja nun bei jedem anders, mich stört die schlechte BQ bei Nvidia gehörig und wenn ich für denselben Preis ein besseres Feature bekomme rede ich mir nicht ein das ich nen Shooter halt nur in 800x600 ohne alle Details spielen muß weil ich nen Unterschied von 200 zu 280fps zu sehen glaube.

MFG
 
Zuletzt bearbeitet:
Gelöschter Beitrag

Dieser Beitrag wurde auf Wunsch des Nutzers gelöscht.
 
Zuletzt bearbeitet:
Was ist so schlimm mir jetzt das Savegame zu geben? Haste Angst dein einziges winziges Argument zu verlieren :fresse: ?

Rück es raus, mein Screen ist uralt, ich weiß nichtmal welche Einstellunge vorhanden waren...
 
Gelöschter Beitrag

Dieser Beitrag wurde auf Wunsch des Nutzers gelöscht.
 
Zuletzt bearbeitet:
7900GTO ist grad der Preishammer.
X1900XT würde ich ne sicherrere Zukunft mit Vista proffezeien. Ist nur so ein Gefühl. HDR+AA wird z.B. bei Direct3D10 pflicht. Was nicht heissen soll die R580 ist 3D10 kompatibel.

Und die 7900GX2 ist der Leistungshammer schlecht hin.

- Wenn es dein Case, Netzteil und Mainboard hergibt würde ich die 7900GX2 nehmen.
- Wenn es günstig und schnell sein soll die 7900GTO.
- Wenn es mal ATI und Shaderpower pur sein soll, dann die X1900XT mit AF vom Feinsten.(die G71iger flakern wirklich, habs den Vergleich selber gemacht. Gemerkt hab ich es aber erst, als ich wusste worauf man achten muß ;-)
 
Zuletzt bearbeitet:
ich finde das mit der bild-vergleicherei sinnlos! jeder hat da bestimmt eine andere einstellung! ob im treiber oder im spiel!

wenn ich die qualität meiner 6800GT (2.PC) auf das maximum stelle (im treiber sowie auch im game) kenn ich mit bloßem auge keinen unterschied zu meiner X1900GT

postet bitte vergleichswerte die mit der auflösung und alle anderen einstellungen 1:1 übereinstimmen!!!!

wobei auch beachtet werden muss ob das game auf dem neuesten-update stand ist! (es hat sich ja viel getan bei HL2 sowie auch bei CCS)

Gruß, AndyX

Ps.: Der Thread ist sehr interessant, man muss ihn sich von ganz vorne lesen^^ .... Ich habe zur X1900(GT) gegriffen, da sie das beste Preis/Leistungs Verhältnis für mich hat! "und ich nicht immer im treiber einstellen muss um die bessere bildqualität zu haben!"
 
Zuletzt bearbeitet:
Half Life 2 ist sicher eins der schlechtesten Beispiele um ATI und NIVIDA zu vergleichen - das vorne weg weil HL2 auf ATI optimiert wurde. :hmm:

Wie sun-man gepostet hat den Artikel vom 3dcenter, so sieht es nun mal aus. Ich möchte zu gern mal auf ner ATI Karte mit aktivierten HDR-AA zoggen, würde mich mal intressieren wie gut so eine geht auf voller Quali und Settings aktive, mit Shooter . Die Treiber NIVIDAs sind schon besser geworden als sie früher mal waren. Nicht zu vergessen 3dcenter schaut sich das schon sehr genau an und korrigiert auch wieder nach wenn sich etwas verändert.

Jetzt kommen bald neue Karten und so sind die alten sowiso schon abgeschrieben in meinen Augen, kommt mal von eurem Stress runter. ;)

mfg
 
Wie sun-man gepostet hat den Artikel vom 3dcenter, so sieht es nun mal aus. Ich möchte zu gern mal auf ner ATI Karte mit aktivierten HDR-AA zoggen, würde mich mal intressieren wie gut so eine geht auf voller Quali und Settings aktive, mit Shooter .

Da ich ne 7900GTO(@GTX), X1900XT und eine X1950XTX in Reichweite habe, kann ich Dir sagen, daß man zwar schon Unterschiede sieht, die aber für meinen Geschmack nicht so gewaltig sind, wie einige hier sagen.

Call of Juarez kann man sehr schön mit HDR+AA spielen, sieht auch sehr gut aus, allerdings gehen die FPS dann auch mit einer X1950XTX schnell auf 25 FPS runter, wenn man sich in der Nähe der Gräser aufhält.

Ich spiele allerdings nur auf 1024x768, monitorbedingt. Ich kann auch nur für die Auflösung sprechen.
 
Hey welcher Film von David Lynch ist dein Favo ? Ich finde Mulholland Drive einfach nur abartig genial gemacht von der Story Aufmachung, besser noch als Lost Highway (den ich leider nicht ganz verstanden habe) oder Blue Velvet oder Die wilde Rose ! Heute oder morgen will ich mir Big Fish anschauen, den kenne ich noch nicht, bin schon sehr gespannt :)

Das ist aber sehr OT hier. Lost Highway is a masterpiece, the best movie of all time. Mein absoluter Lieblingsfilm von Lynch, Mulholland Drive ist sozusagen die weibliche Variante von LH. Aber auch sehr genial!

Btt, also der Zaun ist tatsächlich fast unsichtbar :hmm: , das ist mir nie aufgefallen. Hast du irgendwelche LOD Einstellungen gemacht? Weil dein AF scheint mir auch nicht das AF zu sein, dass NV out of the Box liefert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh