7800gt schneller als x1800xl

also als jemand er beide karten hat/hatte( 7800gtx/x1800xl) finde ich diese diskusion sehr unnötig.

Mit beiden karte kann man gut mit high quality spielen. basta.

die bildquali ist bei der ati natürlich super. man muss aber auch schon sehr genau hinsehen.

das einzige beispiel welches mir einfällt, wo man Area AF gut in bewegung sieht ist WoW. Trotzdem würde ich sagen das keine der karten ( 7800gt/x1800xl) schlechter als sein gegner ist!


@ kimble

hattest du schon eine x1800xl/ 7800gt/gtx?

nein?

Dann hast du ja keine erfahrung, was diese karten angeht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Riverna schrieb:
Das war auch auf die Bildqualität bezogen, hätte ich wohl deutlicher schreiben sollen :(
Na die ist ja auch nicht so viel schlechter, wie das einige beschreiben;)
Man glotzt ja auch nicht so krass ins Bild, das man genau darauf achtet...das flimmern ging mir auf den Sa.., aber das heiß ja auch nicht, nur weil es mir so auffällt, das es gleich jedem auffällt, zbw stört.....ist genau so mit der Lautstärke einer Karte, da hör ich zb keinen Unterschied:( und die Karte kann auch Laut sein, ist mir egal--->ich arbeite mit lauten Maschinen;)
 
Zuletzt bearbeitet:
kimble schrieb:
Oh man, das Problem konnte über einen Treiberfix behoben werden. Liegen also beide gleich auf.
aja...vielleicht der bug im idle...ich glaub kaum das unter load die leistungsaufnahme gesenkt werden konnte :hmm:
 
Leider hab ich bei BF2 auch bischen flimmern,, hab schon ein paar treiber probiert (ab 80xx) und auf HQ gestellt..
Hat aber bis jetzt nicht geholfen,,, hoffe auf ein anderen treiber.
 
Riverna schrieb:
Ich bin da halt anderer Meinung ich hab damals kein als zu großen Unterschied gesehen.

Wir reden hier von 7800GT und X1800XL, das ist was anderes als NV40 R420. Die X1800XL hat winkelunabhängiges AF und damit weit besseres AF, schau dir doch nochmal die Pics aus HL2 an, dann weißte was ich meine.
Mich stört ja auch die bisweilen unzulängliche AF-Quali meiner X800, umsteigen werde ich aber trotzdem wohl erst zum R580.

Warhead schrieb:
aja...vielleicht der bug im idle...ich glaub kaum das unter load die leistungsaufnahme gesenkt werden konnte :hmm:

Unter Load sind 7800GT und X1800XL bei Stromverbrauch ca. 3 W zugunsten der GT auseinander.
 
Zuletzt bearbeitet:
So hab gestern meine GT eingebaut, von schlechter BQ seh ich bissher nichts. Aber ich hab die Screenshots auch noch nicht miteinander verglichen. Das einzige was mir negativ auffällt ist das die Karte sehr laut ist, wenn man bootet und im spielt ist sie auch nicht gerade Noise... aber es hält sich noch im Rahmen.
 
Riverna schrieb:
So hab gestern meine GT eingebaut, von schlechter BQ seh ich bissher nichts. Aber ich hab die Screenshots auch noch nicht miteinander verglichen. Das einzige was mir negativ auffällt ist das die Karte sehr laut ist, wenn man bootet und im spielt ist sie auch nicht gerade Noise... aber es hält sich noch im Rahmen.
so Riverna
halt uns mal auf den laufenden und stell mal paar screens um den Ati-Lager des m0wl zu stopfen ^^ mal ehrlcih langsam geht es auf den senkel :hmm:
immer das selbe reden von flimmer und Schlechter BQ wobei sie nicht eine g70 haben & ist das geilste ist ja wie im bei einem altweiber treffen der hat das gesagt und es muss stimmen ......... :lol:

Ps Riverna ist die karte uach im 2d betrieb laut ?
wenn ja musst du zuerst die treiber von der cd druff klatschen danach treiber upgraden. hab ich ausm 3d center forum
 
Zuletzt bearbeitet:
Ich hab extra Bilder von BF2 , Quake 4 gemacht. Aber BF2 kann ich nicht mehr starten, wahrscheinlich muss ich Windows mal neu installieren.

Ich warte nun erstmal sehnsüchtig auf meinen NexXxoS Komplettwasserkühler :)
 
versuch es mal mit bf neu installen bzw schau malin die config datei ....
oder starte es im abgesicherten modus das game
Ps finde des super das de uns alle aufklärst
 
Neu installiert habe ich schon, sobald ich das Spiel starte wird der Bildschirm schwarz und da geht er normal ins Spiel. Doch er schmeißt mich zurück auf den Desktop.

Naja mal sehen. Andere Spiele laufen ohne Probleme. Und BF2 ist eh ein Problem Kind...
 
DarkmanX88 schrieb:
so Riverna
halt uns mal auf den laufenden und stell mal paar screens um den Ati-Lager des m0wl zu stopfen ^^ mal ehrlcih langsam geht es auf den senkel :hmm:
immer das selbe reden von flimmer und Schlechter BQ wobei sie nicht eine g70 haben & ist das geilste ist ja wie im bei einem altweiber treffen der hat das gesagt und es muss stimmen ......... :lol:

Ich hatte auch eine 7800GT ...

wie man gut erkennen kann, und auch ich habe das flimmern gesehen(welches auch mit neustem Treiber vorhanden ist), also komm nicht gleich mit m0wl stopfen...sonst müssen wirs Dir wohl stopfen^^ ;)
3DCenter hat das schon so richtig verglichen! Auch wenn es viele nicht sehen wollen....oder einfach Blind sind...
 
Zuletzt bearbeitet:
Riverna schrieb:
So hab gestern meine GT eingebaut, von schlechter BQ seh ich bissher nichts. Aber ich hab die Screenshots auch noch nicht miteinander verglichen. Das einzige was mir negativ auffällt ist das die Karte sehr laut ist, wenn man bootet und im spielt ist sie auch nicht gerade Noise... aber es hält sich noch im Rahmen.


Dann freu dich schon mal auf den Lüfter bug, bei den meisten Karten lässt sich der Lüfter nicht regeln.
 
Mumins schrieb:
Dann freu dich schon mal auf den Lüfter bug, bei den meisten Karten lässt sich der Lüfter nicht regeln.
naja dazu hab ich schon was geschrieben und er lässt sich ber rivatuner einstellen ^^
aber du willst ja auf alle fälle die Nv negativ erscheinnen lassen. nurmal so also gegen schlag jetzt haben wir winter was macht ihr mit der ati im sommer ? wo die umgebungs temp steigt ^^ naja watt positives hats ja braucht kein herd mehr ^^
auch kein wunder wenn se net im sommer released wurde unter dem aspekt ganz logisch ^^

*Joke*

Tectrex schrieb:
Ich hatte auch eine 7800GT ...

wie man gut erkennen kann, und auch ich habe das flimmern gesehen(welches auch mit neustem Treiber vorhanden ist), also komm nicht gleich mit m0wl stopfen...sonst müssen wirs Dir wohl stopfen^^ ;)
3DCenter hat das schon so richtig verglichen! Auch wenn es viele nicht sehen wollen....oder einfach Blind sind...
also wenn man auf high quality zoggt sehe ich von nichts (cs:s nfs mw) die zogge ich und nüxx da, naja und vieliebt in meine hardware bin ich net wechsle sie wie unterhos ^^ :bigok:
aber mal ehrlich wenn man da was sehn will sieht man des auch was ich zb seh keien 4,xx ghz sondern 5,5 ghz im pc (cpu) ;-)
aber warten wir mal auf rivernas objektivitat ab
udn das subjektive empfinden auch noch aber erst später ^^
wir wollen fakten :fresse:

Ps hast du die full retail ? denk ich mal ^^
wenn ja meld dich bei xfx wegen cod 2 ^^
 
Zuletzt bearbeitet:
DarkmanX88 schrieb:
naja dazu hab ich schon was geschrieben und er lässt sich ber rivatuner einstellen ^^
aber du willst ja auf alle fälle die Nv negativ erscheinnen lassen. nurmal so also gegen schlag jetzt haben wir winter was macht ihr mit der ati im sommer ? wo die umgebungs temp steigt ^^ naja watt positives hats ja braucht kein herd mehr ^^
auch kein wunder wenn se net im sommer released wurde unter dem aspekt ganz logisch ^^
Wozu gibts WaKü. Is doch normal, dass Graka's heiß werden. Is doch bei Nvidia nicht viel anders. Bevor ich meine 6800GT hatte, hatte ich ne 9800XT. Da sahen die Spiele wirklich gut @ HQ aus. Als ich die GT eingebaut hab, hab ich zuerst gedacht ich bin im falschen Film. Ich will zwar ATI nicht schönreden, von der Leistung her passt die Nvidia ganz gut. Ich meine inzwischen hab ich mich daran gewöhnt, ich merks nur noch wenn einer mit ner ATI neben mir zockt. Das ist nichts negatives, wie gesagt allzuviel Unterschied is da auch ned, man merkt es nur wenn man vergleichen kann.

Ich tendiere momentan eher wieder zu ATI, wie gesagt ich hatte bisher Karten beider Fraktionen. Bei ATI is die BQ einfach ein Stückchen besser, das ist mir einfach wichtiger als ein wenig mehr Speed :coolblue: ich warte aber erstmal auf den R580 und Nvidias Gegenstück, vielleicht haben die dann auch die Bugs raus. Hab zwar nie gesehen wie das Flimmern ausschaut naja :rolleyes:
 
Mumins schrieb:
Dann freu dich schon mal auf den Lüfter bug, bei den meisten Karten lässt sich der Lüfter nicht regeln.


Ich weiß nicht wo du immer deine Abenteuerlichen Geschichten her hast, aber meine Karte lässt sich sehr gut regeln, also nichts mit Lüfterbug... aber wieso red ich eigentlich noch mit dir?

Du hast doch einen totalen Verlust zur Realität was Grafikkarten angeht. :hmm: Du redest dir genau so deine ATI schön wie andere ihre nVidia Karten. Ihr seit Fanboys da lohnt es sich gar nicht drüber zu diskutieren.
 
passt zwar nicht ganz zum thema aber hab eine frage.

Wollte mir grad ein netzteil kaufen,

OCZ 420WATT Rev2 oder ENERMAX LIBERTY 500WATT

für welches würdet ihr euch entscheiden?

SYS:

Opteron 144/Winchester 3000+
DFI ULTRA-D
X1800XL
Hitachi250gb Sata2
GEIL 2*512mb BH-5
 
KRambo schrieb:
Wozu gibts WaKü. Is doch normal, dass Graka's heiß werden. Is doch bei Nvidia nicht viel anders. Bevor ich meine 6800GT hatte, hatte ich ne 9800XT. Da sahen die Spiele wirklich gut @ HQ aus. Als ich die GT eingebaut hab, hab ich zuerst gedacht ich bin im falschen Film. Ich will zwar ATI nicht schönreden, von der Leistung her passt die Nvidia ganz gut. Ich meine inzwischen hab ich mich daran gewöhnt, ich merks nur noch wenn einer mit ner ATI neben mir zockt. Das ist nichts negatives, wie gesagt allzuviel Unterschied is da auch ned, man merkt es nur wenn man vergleichen kann.

Ich tendiere momentan eher wieder zu ATI, wie gesagt ich hatte bisher Karten beider Fraktionen. Bei ATI is die BQ einfach ein Stückchen besser, das ist mir einfach wichtiger als ein wenig mehr Speed :coolblue: ich warte aber erstmal auf den R580 und Nvidias Gegenstück, vielleicht haben die dann auch die Bugs raus. Hab zwar nie gesehen wie das Flimmern ausschaut naja :rolleyes:
da hast du recht weis auch noch von der 9800 zur 6800 aber schon en kleiner unterschied waren keien welten aber er war da udn genau so stelle ich ihn mir jetzt zwischen g70 & r520 vor udn sry hab anfangs über legt mir ne ati zuholen udn mal testen hab mir aber gesagt komm die karte is jut (nicht eingeredet na na na ihr fans ) ist super zu oc was will man mehr und das bissel quali mehr rentiert sich nicht und vom finanziellen her sowiso erst recht nicht dazu kommennoch die halsabschneider vom marktplatz :bigok: :lol:
so muss weiter arbeiten later schau ich noch mal rein ^^
 
Riverna schrieb:
Ich weiß nicht wo du immer deine Abenteuerlichen Geschichten her hast, aber meine Karte lässt sich sehr gut regeln, also nichts mit Lüfterbug... aber wieso red ich eigentlich noch mit dir?

Du hast doch einen totalen Verlust zur Realität was Grafikkarten angeht. :hmm: Du redest dir genau so deine ATI schön wie andere ihre nVidia Karten. Ihr seit Fanboys da lohnt es sich gar nicht drüber zu diskutieren.

Du solltest lesen können, ich schrieb bei den meisten, nicht bei allen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=260485

Im übrigen hab ich mit keinem Wort gesagt, dass die 7800GT ne schlechte Karte ist, sie hat gegenüber der ATI nur die schlechtere AF-Quali, vom flimmern war keine Rede.

Weiterhin ist es schon witzig mich ATI-Fanboy zu nennen, wo ich doch vor meinen beiden X800ern 4 Nvidia Karten im System hatte.
 
Zuletzt bearbeitet:
DarkmanX88 schrieb:
also wenn man auf high quality zoggt sehe ich von nichts (cs:s nfs mw) die zogge ich und nüxx da, naja und vieliebt in meine hardware bin ich net wechsle sie wie unterhos ^^ :bigok:
aber mal ehrlich wenn man da was sehn will sieht man des auch was ich zb seh keien 4,xx ghz sondern 5,5 ghz im pc (cpu) ;-)
aber warten wir mal auf rivernas objektivitat ab
udn das subjektive empfinden auch noch aber erst später ^^
wir wollen fakten :fresse:

Ps hast du die full retail ? denk ich mal ^^
wenn ja meld dich bei xfx wegen cod 2 ^^
Also nochmal, ich sage nix gegen die BQ, die ja einige als sooo schlecht bezeichen, was absoluter Quatsch ist, mir ging halt nur das Flimmern auf den Sa... und das ist zu 100% vorhanden(achte mal bei CSS auf die Waffen unter bewegungen)..
Die BQ selbst, ist in einigen Games auf der ATI ein kleines "stückchen" besser, mehr nicht...und da muß man halt schon sehr genau hinsehen, aber das schlecht zu bezeichnen, ist natürlich absoluter Quatsch.
Auch mein Lüffi lief perfekt;) Und mir war der noch net mal zu laut...
Und ich bin kein Fanboy, hab auch immer ATI-->Nvidia-->ATI-->NVidia
 
Tectrex schrieb:
Also nochmal, ich sage nix gegen die BQ, die ja einige als sooo schlecht bezeichen, was absoluter Quatsch ist, mir ging halt nur das Flimmern auf den Sa... und das ist zu 100% vorhanden(achte mal bei CSS auf die Waffen unter bewegungen)..
Die BQ selbst, ist in einigen Games auf der ATI ein kleines "stückchen" besser, mehr nicht...und da muß man halt schon sehr genau hinsehen, aber das schlecht zu bezeichnen, ist natürlich absoluter Quatsch.
Auch mein Lüffi lief perfekt;) Und mir war der noch net mal zu laut...
Und ich bin kein Fanboy, hab auch immer ATI-->Nvidia-->ATI-->NVidia

Und genau dieser Unterschied ist mit der X1800 Serie noch mal größer geworden. Die X1800 hat AF, welches winkelunabhängig ist, dadurch wirken die Texturen schärfer und nicht matschig. Nvidia hatte solch AF auch schon mit der FX5900.

7800x1800afcomp8mt.gif
 
Zuletzt bearbeitet:
Tectrex schrieb:
Also nochmal, ich sage nix gegen die BQ, die ja einige als sooo schlecht bezeichen, was absoluter Quatsch ist, mir ging halt nur das Flimmern auf den Sa... und das ist zu 100% vorhanden(achte mal bei CSS auf die Waffen unter bewegungen)..
Die BQ selbst, ist in einigen Games auf der ATI ein kleines "stückchen" besser, mehr nicht...und da muß man halt schon sehr genau hinsehen, aber das schlecht zu bezeichnen, ist natürlich absoluter Quatsch.
Auch mein Lüffi lief perfekt;) Und mir war der noch net mal zu laut...
Und ich bin kein Fanboy, hab auch immer ATI-->Nvidia-->ATI-->NVidia
Naja udn das wollen die fanatiker nicht einsehen traurig so was ^^


@Riverna
und wie weit biste ?
 
Mumins schrieb:
Und genau dieser Unterschied ist mit der X1800 Serie noch mal größer geworden. Die X1800 hat AF, welches winkelunabhängig ist, dadurch wirken die Texturen schärfer und nicht matschig. Nvidia hatte solch AF auch schon mit der FX5900.

7800x1800afcomp8mt.gif


Deshalb habe ich mir die ATI gekauft,und nicht die 7800'er...

Aber :wayne: ....
 
Mumins schrieb:
Und genau dieser Unterschied ist mit der X1800 Serie noch mal größer geworden. Die X1800 hat AF, welches winkelunabhängig ist, dadurch wirken die Texturen schärfer und nicht matschig. Nvidia hatte solch AF auch schon mit der FX5900.

7800x1800afcomp8mt.gif

das is doch superschlecht ...man sieht jawohl eindeutig das beier 7800GT kein AF an ist ... tztztz ....

ich habe gerade erst den wechsel von ATI zu Nvidia gemacht und ja die bildquali @ATI ist ein kleines stück besser aber dieses bild da ist müll ...

ausserdem is beier X1800XT da Adaptive AA an ... beier 7800GT aber kein transparenz AA ...
 
Zuletzt bearbeitet:
Janchu88 schrieb:
das is doch superschlecht ...man sieht jawohl eindeutig das beier 7800GT kein AF an ist ... tztztz ....

ich habe gerade erst den wechsel von ATI zu Nvidia gemacht und ja die bildquali @ATI ist ein kleines stück besser aber dieses bild da ist müll ...

ausserdem is beier X1800XT da Adaptive AA an ... beier 7800GT aber kein transparenz AA ...

Du hast keine Ahnung. Natürlich ist bei der Nvidia AF an, sonst könnte man das winkelabhängige AF an der Wand nicht sehen.
 
Zuletzt bearbeitet:
DarkmanX88 schrieb:
@Riverna
und wie weit biste ?


ich warte auch schon gaaaaaanz gespannt auf den test. bin ja auch am überlegen welche karte (in meinen rechner kommen)


Bigtower schrieb:
Sowohl in der aktuellen Gamestar, als auch in der aktuellen PCGH wird ATI-Karten eine insgesamt bessere Bildqualität bescheinigt als den NVidia Karten, ganz unabhängig von der 3D Leistung.
 
Bin grad nicht auf dem Laufenden - ist eine X1800XL auf XT modbar?
Ich denke nicht, oder?

Also was ich so sehe, würde meine Wahl auf jeden Fall auf ATI fallen.
Die Bildquali bei NV in dieser Preisklasse ist ja schon peinlich!
 
Snoopy69 schrieb:
Bin grad nicht auf dem Laufenden - ist eine X1800XL auf XT modbar?
Ich denke nicht, oder?

Also was ich so sehe, würde meine Wahl auf jeden Fall auf ATI fallen.
Die Bildquali bei NV in dieser Preisklasse ist ja schon peinlich!

Da der Unterschied nur im Takt liegt, bringt man einige XL schon auf die Werte der XT. Man kann ja die Spannung der GPU und des Speichers mit nem Tool erhöhen.
 
Der Unterschied ist aber schon etwas krass - 500/500 zu 625/750MHz...
Ich denke, die XL hat lahmere Ram´s oder?

Interessant wäre es auch zu wissen, wie hoch der GPU-Takt bei einer XL und bei einer XT geht. Die XT wird sicherlich selektierte GPU´s haben.
 
Snoopy69 schrieb:
Der Unterschied ist aber schon etwas krass - 500/500 zu 625/750MHz...
Ich denke, die XL hat lahmere Ram´s oder?

Interessant wäre es auch zu wissen, wie hoch der GPU-Takt bei einer XL und bei einer XT geht. Die XT wird sicherlich selektierte GPU´s haben.

Es gibt noch XL's die 1.4NS Speicher drauf haben,meine Sapphire hat auch noch welche.

Ich glaube auch das die XT's noch selektierte Chips drauf haben,schaffe mit ach und Krach 612Mhz core mit 1.275 GPU Vcore,mehr ist nicht möglich.

Aber Ausnahmen gibt es überall.

Aber für 50-80 Mhz mehr Core Takt gebe ich keine 200,00€ mehr aus...
 
Was ist Standard-VGPU und -VDD?
Und ist die Standard-Spannung beider Karten gleich?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh