7800gt schneller als x1800xl

erzähl doch kein blödsinn... das ist doch totaler Schwachsinn. Wir haben es mittlerweile mindendestens 10 mal erklärt das die Bildqualität nur noch gering schlechter ist sobald mal mit RivaTuner LOD auf +3 stellt. Aber anscheinend willst du es nicht verstehen... die Qualität ist so minimal schlechter und das weiß jeder der es unparteiisch sieht.

Ich rede vom AA und nicht vom AF. Das 4AA der ATI glättet die Kanten immer noch einen Tick besser, als das 4AA der Nvidia Karten.
Zum AF, den LOD ins negative schieben ist kein Allheilmittel. Zumal das manche Games ja selber machen, wenns dann flimmert mußte den LOD auf Clamp setzen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mumins schrieb:
Ich rede vom AA und nicht vom AF. Das 4AA der ATI glättet die Kanten immer noch einen Tick besser, als das 4AA der Nvidia Karten.
Zum AF, den LOD ins negative schieben ist kein Allheilmittel. Zumal das manche Games ja selber machen, wenns dann flimmert mußte den LOD auf Clamp setzen.


Ich hatte bissher kein Spiel wo das mit dem LOD nicht geklappt hat, aber da du anscheinend mehr weißt sag mir doch mal welches Spiel das sein soll. Dann prüfe ich das nach sobald ich von meiner Arbeit zurück komme.

Lass mal Taten sprechen weil bissher kam von dir nur ein Bild, wo ich aber nicht so recht dran glaube weil andere User hier aus dem Thread nachgestellt haben und wo dort die Bildqualität um einiges besser zu sein scheint. Ansonstens kommen nur Benchmark Ergebnisse die eh immer zugunsten ATi´s sind.
 
Zuletzt bearbeitet:
crusher143 schrieb:
Wo bitte ist der Unterschied zwischen den 2 Bildern ????? Also ich konnte keinen feststellen obwohl ich paar Min. draufgeschaut habe und wenn ich im Spiel bin und rumlaufen dann so und so nicht.
^^


es gibt kaum bis gar keinen unterschied-aber spitzfindige finden mit sicherheit
dank lupe ein um 0,0000000001% schärferes bild auf x1800 als bei nv:bigok: :fresse:
 
Riverna schrieb:
@Tectrex
erst überlegen und dann posten... weil bei 4xAA/16xAF ist die CPU total egal. Und nein beide Karten waren nur mittelmässig Übertaktet. Auf einmal sind alle Benchmarks nicht realistisch ist klar...sobald beide Karten gleich schnell sind bleiben die Benchmarks Schrott. Wäre ATI nun schneller wären die Benchmarks gut gewesen alles klar.

Najaa... Die X1800XL von CoolP verknuspert zumindest meine 7800GT zum Frühstück. Er hat netterweise mal ein Paar F.E.A.R. Benchmarks gemacht (für mich z. Zt. einer der interessantesten Benchmarks) und gezeigt, dass seinen XL im Schnitt eine AA-Stufe höher gehen kann, bei immer noch besserer Performance - außerdem scheint die Karte von eingeschalteten Softshadows gänzlich unbeeindruckt zu sein.
 
MrLeopard schrieb:
Najaa... Die X1800XL von CoolP verknuspert zumindest meine 7800GT zum Frühstück. Er hat netterweise mal ein Paar F.E.A.R. Benchmarks gemacht (für mich z. Zt. einer der interessantesten Benchmarks) und gezeigt, dass seinen XL im Schnitt eine AA-Stufe höher gehen kann, bei immer noch besserer Performance - außerdem scheint die Karte von eingeschalteten Softshadows gänzlich unbeeindruckt zu sein.


soft shadows funktionieren nicht einwandfrei, schon gar nicht mit AA.
 
MrLeopard schrieb:
Najaa... Die X1800XL von CoolP verknuspert zumindest meine 7800GT zum Frühstück. Er hat netterweise mal ein Paar F.E.A.R. Benchmarks gemacht (für mich z. Zt. einer der interessantesten Benchmarks) und gezeigt, dass seinen XL im Schnitt eine AA-Stufe höher gehen kann, bei immer noch besserer Performance - außerdem scheint die Karte von eingeschalteten Softshadows gänzlich unbeeindruckt zu sein.

Du kannst nicht eine X1800XL nehmen die 700Mhz packt und sie dann als Referenz betrachten. 700Mhz Coretakt ist schon ein ganzer Haufen, da ist es ganz klar das die meisten (alle?) 7800GTs das nachsehen haben. Ich denke mal das der Durchschnitt bei den XL Karten zwischen 640Mhz - 650Mhz lliegt.

Und da ist sie nicht viel schneller als eine 7800GT die 500Mhz Coretakt packt, was auch ungefähr etwas über durchschnitt ist.
 
Hmm, OK - dass seine XL extrem gut geht (und meine GT extrem mittelmäßig) ist natürlich wahr. Trotzdem habe ich das Gefühl, dass die Jungs mit XLs (selbst den "schlechten" 2ns) leicht in Regionen vorstoßen (WaKü vorrausgesetzt), die den GTs eher verwehrt bleiben...

Wenn alles glatt läuft kann ich Ende der Woche mal einen direkten Vergleichtest zwischen meiner GT und einer neuen (also wahrscheinlich 2ns) XL machen.
 
@Riverna
Ich habe überlegt und bekomme komischerweise mehr Punkte in 2003/2005 und erst recht in Aquamark mit einer besseren CPU ;) Also Überlege bitte erst Du...
Ich hab Dir schon mal erklärt das jede XL mindestens 660 schafft! Es gibt sogar welche die Ihre XLs mit 740 laufen lassen....660 bei 1,27V 700Mhz ca 1,3-1,35V und die besten XLs schaffen bei ca1,4V die 720-740Mhz...also rede nicht schon bei 700Mhz von der besten XL ;)
OC hat die GT keine Chance!
Wegen der BQ wiedermal, ich hab selber beide gehabt und kann hier einfach sagen das man bei der GT einstellen kann was man will, die ATI hat trotzdem das bessere Bild.
Ich sage aber auch nicht das die NVidia ein schlechtes Bild haben, nur halt das die ATI einfach ein besseres Bild hat und da kann hier jeder sagen was er will. Auch das sogenannte Flimmern bekommt man nicht zu 100% weg.
Auch bei der ATI gibt es Nachteile wie zb die falsche Rauchdarstellung beim 3D Mark, wo ich denke(oder hoffe) das es kein Hardware Bug ist...auch bei nfsmw sieht man diese Fehler, welche aber auf der XBOX360 komischerweise nicht sind, also denke ich mal das es kein Hardwarebug ist, da die Chips ja recht ähnlich sind.
Bei der BQ kommt das auch aufs Auge an, was nicht heißen soll das Du Blind bist, sondern das jedes Auge anders warnimmt ;)
BQ ist bei ATI und bei NVidia gut, jedoch in meinen Augen hat die ATI das bessere Bild, wenn auch kaum nicht viel...
 
Zuletzt bearbeitet:
also ich würde mal sagen Nvidia hat die technisch bessere karte nur kann die karte in sachen takt nicht mit halten gegen die X1800XL
wenn NV auf 90nm umgestiegen ist wird NV sicher wieder vorne liegen da NV in sachen pipelines schon weiter ist und dann auch einiges am takt machen kann,
mal sehen bin auf die nächsten generationen gespannt,
im moment hält sich ATI echt nur durch den 90nm herstellungsprocess über wasser.
also mit OC geht ne X1800XL besser okay das ist geklärt.
ich als ego shooter zocker würde auch nie so auf details achten bei so minimalen bildqualitäten, das ist kein kaufgrund um eine ATI zu nehmen,
beide karten sind in etwa gleichwertig wenn,s vom preis her stimmt,
wie siehts mit der leistungsaufnahme aus ?
 
Night<eye> schrieb:
also ich würde mal sagen Nvidia hat die technisch bessere karte
Wie darf man das verstehen?
Wenn es danach geht versteh ich nicht warum die GTX@512Mb bei fast gleichen Takt kaum schneller ist wie eine XT? Obwohl die NVidia 24 Pipes hat und die XT nur "16"...
Technisch sind die Karten wohl eher auf gleichen Level...wobei da sogar ATI ein "wenig" besser ist wegen HDR +AA ;)
 
Tectrex schrieb:
@Riverna
Ich habe überlegt und bekomme komischerweise mehr Punkte in 2003/2005 und erst recht in Aquamark mit einer besseren CPU ;) Also Überlege bitte erst Du...
Ich hab Dir schon mal erklärt das jede XL mindestens 660 schafft! Es gibt sogar welche die Ihre XLs mit 740 laufen lassen....660 bei 1,27V 700Mhz ca 1,3-1,35V und die besten XLs schaffen bei ca1,4V die 720-740Mhz...also rede nicht schon bei 700Mhz von der besten XL ;)
OC hat die GT keine Chance!
Wegen der BQ wiedermal, ich hab selber beide gehabt und kann hier einfach sagen das man bei der GT einstellen kann was man will, die ATI hat trotzdem das bessere Bild.
Ich sage aber auch nicht das die NVidia ein schlechtes Bild haben, nur halt das die ATI einfach ein besseres Bild hat und da kann hier jeder sagen was er will. Auch das sogenannte Flimmern bekommt man nicht zu 100% weg.
Auch bei der ATI gibt es Nachteile wie zb die falsche Rauchdarstellung beim 3D Mark, wo ich denke(oder hoffe) das es kein Hardware Bug ist...auch bei nfsmw sieht man diese Fehler, welche aber auf der XBOX360 komischerweise nicht sind, also denke ich mal das es kein Hardwarebug ist, da die Chips ja recht ähnlich sind.
Bei der BQ kommt das auch aufs Auge an, was nicht heißen soll das Du Blind bist, sondern das jedes Auge anders warnimmt ;)
BQ ist bei ATI und bei NVidia gut, jedoch in meinen Augen hat die ATI das bessere Bild, wenn auch kaum nicht viel...

Wenn jede X1800XL so locker 600Mhz schafft wieso hat TROLL dann nur 630Mhz? Und die GT hatte auch nur knapp 500Mhz Coretakt also war der vergleich schon fair. Ich kann auch gerne mit meiner neuen GT und ihren 580Mhz Coretakt benchen... :haha:
 
@Riverna
Jop, von der mit 580Mhz Core würd ich gerne ein paar benches sehn, am besten fear, Doom3, UT 2k4(primeval) und FarCry, 3dmurks und Aquamark interessieren mich nicht!

€dit: Kann man mit dem Q4 demo auch ein timedemo laufen lassen?

€dit: €dit: Bei FarCry würd ich das Timedemo vorschlagen HIER
 
Zuletzt bearbeitet:
Riverna schrieb:
Wenn jede X1800XL so locker 600Mhz schafft wieso hat TROLL dann nur 630Mhz? Und die GT hatte auch nur knapp 500Mhz Coretakt also war der vergleich schon fair. Ich kann auch gerne mit meiner neuen GT und ihren 580Mhz Coretakt benchen... :haha:
Troll gibt nur 1,22V ;) Das ist nichts, da der R520 mit 1,3V betrieben wird, gib deiner GT doch mal weniger Volt als die Deafult hat, mal sehen was Du dann schaffst ;) Das ist nicht fair, und nicht jede GT schafft 500...oder warum gibt es sovele hier im Forum die keine 500 schaffen oder erst nach Geo +0...
580Mhz Core:bigok: Da haste aber ne Megahammer GT...benches please, interessiert mich jetzt auch mal....
Also 9129 3DMarks mit ner GT, spitzen Leistung!!! Aber wie man sieht geht das nicht mit 500/1200 wie da jemand schon behauptet hatte ;)
 
Zuletzt bearbeitet:
@its a mee
Q4 und F.E.A.R sind kein Problem, die anderen Spiele habe ich nicht. Oder gibt es da eine Demo Map wo man nur den Benchmark durchlassen laufen muss?

@Tectrex

Also 500Mhz ohne Geotakt schaffen eigentlich 80% aller Karten, würde ich jedenfalls mal behaupten.
 
Riverna schrieb:
@its a mee
Q4 und F.E.A.R sind kein Problem, die anderen Spiele habe ich nicht. Oder gibt es da eine Demo Map wo man nur den Benchmark durchlassen laufen muss?

Nein leider braucht man die Vollversion für die Timedemos! Aber Fear und Q4 würden mich schon interessieren!

Überall max Details, 1280x1024 bzw 1280x960, 4x AA und 16x AF und bei Fear Softshadows off!
 
Riverna schrieb:
Ich hatte bissher kein Spiel wo das mit dem LOD nicht geklappt hat, aber da du anscheinend mehr weißt sag mir doch mal welches Spiel das sein soll. Dann prüfe ich das nach sobald ich von meiner Arbeit zurück komme.

Lass mal Taten sprechen weil bissher kam von dir nur ein Bild, wo ich aber nicht so recht dran glaube weil andere User hier aus dem Thread nachgestellt haben und wo dort die Bildqualität um einiges besser zu sein scheint. Ansonstens kommen nur Benchmark Ergebnisse die eh immer zugunsten ATi´s sind.

Das Bild aus HL2 was ich gepostet hab wurde von einem User hier im Thread nachgestellt und es sahz exakt gleich aus. Wenn man nicht am LOD dreht, dann siehts eben so aus!

Was für Benchmarkergebnisse zugunsten ATIs? Ich benche einfach und poste das Ergebnis, was soll ich sonst machen?
Meine Ergebnisse haben immer gestimmt, was man von deinen nicht immer behaupten konnte.
Zur Erinnerung:
http://www.forumdeluxx.de/forum/showpost.php?p=2788257&postcount=202
 
Zuletzt bearbeitet:
Wenn man dies und das nicht tut... bla bla bla... man kann aber eben den LOD verstellen und dann ist der Unterschied nicht mehr sehr groß.

Meine Ergebnisse haben auch immer gestimmt, ich kann nichts dafür wenn Quake4 meine Einstellungen nicht übernimmt.
 
Riverna schrieb:
Wenn man dies und das nicht tut... bla bla bla... man kann aber eben den LOD verstellen und dann ist der Unterschied nicht mehr sehr groß.

Meine Ergebnisse haben auch immer gestimmt, ich kann nichts dafür wenn Quake4 meine Einstellungen nicht übernimmt.

Dann laber keinen Müll und behaupte nicht, dass ich zugunsten ATIs benche.
 
Zuletzt bearbeitet:
Achte mal auf deinem Umgangston... du weißt genau wie ich es meine... "Bei ATI muss man das deaktivieren damit es schneller läuft" aber bei nVidia darf man nicht den LOD hochstellen...

du misst mit zweierlei Maß.
 
Riverna schrieb:
Achte mal auf deinem Umgangston... du weißt genau wie ich es meine... "Bei ATI muss man das deaktivieren damit es schneller läuft" aber bei nVidia darf man nicht den LOD hochstellen...

du misst mit zweierlei Maß.

Mein Umgangston ist völlig normal! Mir kreidest du das an, aber auf der Seite vorher fährst du mich genauso an. Manchmal könnte man meinen mit deinem Account posten 2 verschiedene Leute.
Wo hab ich was geschrieben, dass man bei ATI was deaktivieren muß? Wenn du das mit dem AI meinst, das muß man deaktivieren, damit die Bildfehler in HL2 verschwinden. Schneller wirds dadurch aber nicht sondern langsamer.
Auch habe ich nicht behauptet, dass man den LOD nicht verschieben darf. Nur wissen 90% aller User nichtmal was der LOD ist.

Hier das Bild von mir:LOD-1
[img=http://img518.imageshack.us/img518/7827/hl220051219143444047rq.th.jpg]
 
Zuletzt bearbeitet:
Ich kenne mich mit der GF7 nicht so aus...kann mir jemand kurz erklären was es mit dem LOD Wert auf sich hat?

Ich werd auch mal wieder ein paar Benshscreens einhängen, aber erst wenn meine neue Wakü da ist...die jetztige es ein bisschen überfordert mit X2 und XL!
 
LOD heißt "Lord of Details". Obwohl ich mir bei dem Wort Lord nicht so sicher bin. Normal steht das auf 0. Wenn du es aber nun auf +3 setzt hast du mit nVidia Karten eine wesentlich bessere Qualität. Aber auch weniger Performance.
 
Riverna hast meinen Respekt wie du dich allein gegen 3 ATI vertreter schlägst :)
 
Riverna schrieb:
LOD heißt "Lord of Details". Obwohl ich mir bei dem Wort Lord nicht so sicher bin. Normal steht das auf 0. Wenn du es aber nun auf +3 setzt hast du mit nVidia Karten eine wesentlich bessere Qualität. Aber auch weniger Performance.

LOD heißt Level of Detail. Wenn du ihn ins Positive schiebst wird die Bildquali schlechter! Du mußt ihn ins Negative schieben, dann sehen die Texturen oftmals besser aus. Dafür flimmerts unter Umständen etwas.
Und in HL2 wirds unerträglich, je weiter ich den LOD ins Negative schiebe, desto mehr flackert der Boden wenn man in Bewegung ist. Man schiebt ne Bugwelle vor sich her.
 
RivaTuner öffnen, dann auf Direkt X und dort den Balken nach links schieben.

@Night<eye>

Ich will mich gar nicht verteidigen, ich denke das hier ist eine recht Sachliche Diskussion dafür das zwei Lager aufeinander treffen :)

@Mumins

Wieso nur LOD -1? Stell doch bitte mal auf -3.
Edit: Ok Level ... wie gesagt ich sitze gerade im Büro und hab das nicht im Kopf :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh