7800gt schneller als x1800xl

zu SM3

Also Painkiller sieht SM3 besser aus als SM2 , warum weiss ich nicht , ist jedoch Fakt.
Und da ich Painkiller wie irre spiele , isses mir klar aufgefallen.

Ja, weil man mit SM3.0 mehr Effekte berechnen kann, mit SM2.0 ginge es auch, aber eben über Umwege, daher langsamer.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
so hab nun alle 12 Seiten gelesen...
zum flimmern worums ursprünglich mal ging... bei NFS MW gibts bei mir an einer stelle im game ein flimmern.... also jedesmal wenn ich da vorbeifahr seh ichs 0.1sec flimmern... ansonsten noch nix vom flimmern bemerkt...
zum rest ka... werde hl2 ma wieder installen und bis zu der stelle spielen...

aber ganz ehrlich mich juckts net ob die kanten jetzt alle schön grade sind oder villeicht n bissl verwaschen... beinem egoshooter hab ich keine zeit die schöne landschaft und die ach so schönen texturen zu bewundern...
 
Mumins schrieb:
Ja, weil man mit SM3.0 mehr Effekte berechnen kann, mit SM2.0 ginge es auch, aber eben über Umwege, daher langsamer.

Gut verständlich , aber subjektiv betrachtet , wenn man mit SM3.0 dann
eben durch die Effekte ein besseres Bild sieht als bei SM2.0 ,

dann ist doch die BQ vom Game eben auch subjektiv besser für mich.

Greetz Koyote008
 
Koyote008 schrieb:
Gut verständlich , aber subjektiv betrachtet , wenn man mit SM3.0 dann
eben durch die Effekte ein besseres Bild sieht als bei SM2.0 ,

dann ist doch die BQ vom Game eben auch subjektiv besser für mich.

Greetz Koyote008


Ja!


http://www.simhq.com/_technology/technology_058b.html

Da sieht mans sehr schön. Die Nvidia Karten sind mit SM3.0 schneller als im 1.1er Pfad, kommt HDR dazu sinkt die Performance drastisch.
 
Zuletzt bearbeitet:
Mumins schrieb:
Ich glaube du täuschst dich SM3.0 hat nichts mit Optik zu tun, es bringt nur Performance. Außerdem wäre mir neu, dass F.E.A.R. HDR unterstützt. Meine Einstellungen im Treiber sind auf Quality, also Maximum. RAM und CPU haben in F.E.A.R. kaum Einfluß, zumindest nicht bei unseren Karten. Wie du siehst selbst eine Oced 7800GT ist nicht Welten schneller als meine zugegeben stark übertaktete Karte.
ok ... alles klar ...nach diesem post bin ich mir sicher ...es geht also auch anders .... insofern sry für die beleidigungen vorhin :d

Fakt ist um welten schneller ist sie nicht (ich bin ja auch nich freiwillig auf 7800GT umgestiegen ... aber meine X800 hat den geist aufgegeben ;) )
und das die BQ in sachen AF @ATI besser is hab beim umstieg selber gemerkt (obwohl man sich doch ziemlich schnell an das Nvidia AF gewöhnt... )

zum SM3 ja und nein ....
zum einen bringt Shadermodel 3 vorteile in form von echtem HDR ,nämlich dem 128 BIT HDR (32bit Fliesskomma genauigkeit auf 4 Farbkanälen) was jetzt aber ür

SM3 kann (was nicht heisst muss) bei kurzen Shaderzeilen langsamer arbeiten als das 2.0er da es für mehr als 1000xmal so lange Shaderzeilen optimiert wurde wie SM 2 (oder besser formuliert sie möglich macht) und durch diese längeren Shaderzeilen !können! "bessere" Effekte erzeugt werden ... das dies dann wiederum inne performance geht ist klar ... inwie fern F.E.A.R. von dieses längeren Shadern etc. gebrauch macht ist mir nicht bekannt ...

ma nebenbei ... wollen wir uns jetzt hier tag ein tag aus streiten bis es die nächste Graka-generation gibt und dann weiter streiten mit neuen protagonisten .... ich denke nicht :d
 
thade2001 schrieb:
Du wirst doch nicht die gefährlichen "Killerspiele" spielen. Hast du denn gar keinen Anstand mehr:bigok:


ach wo, bei mir kommt nur solitaire und kniffel auf die platte:d




theboss
 
Janchu88 schrieb:
zum SM3 ja und nein ....
zum einen bringt Shadermodel 3 vorteile in form von echtem HDR ,nämlich dem 128 BIT HDR (32bit Fliesskomma genauigkeit auf 4 Farbkanälen) was jetzt aber ür

Also PS3.0 hat absolut nix mit HDR zutun;)
Desweiteren haben die NVidias und auch die ATIs(also die neuen) 16 Bit pro Kanal, also kein 128Bit HDR sondern 64Bit HDR...echtes HDR sind aber 32 Bit für jeden Kanal....

Edit:
Den Link hab ich jetzt auch wieder:
http://de.wikipedia.org/wiki/High_Dynamic_Range_Rendering
 
Zuletzt bearbeitet:
Tectrex schrieb:
Also PS3.0 hat absolut nix mit HDR zutun
ist nicht ganz wahr ... klar alle anderen dircext X9 karten können auch ein simuliertes HDR (64bit oder 32bit sein ma hingestellt.... ) aber um 32 BIT fliesskommagenuaigkeit zu bekommen wird PS3 benötigt und insofern ist zumindest "echtes" HDR vom PS3 abhängig .... ;)
und das die Aktuellen karten 128bit HDR können hab ja nich behauptet ....das die max 16BIT pro Farbkanal haben war mir auch bekannt ;)

(im Prinzip wäre HDR auch auf DX 8 umsetzbar .... aber die leistung würde nie auf mehr als 1FPS steigen ;) )
 
Zuletzt bearbeitet:
Janchu88 schrieb:
ist nicht ganz wahr ... klar alle anderen dircext X9 karten können auch ein simuliertes HDR (64bit oder 32bit sein ma hingestellt.... ) aber um 32 BIT fliesskommagenuaigkeit zu bekommen wird PS3 benötigt und insofern ist zumindest "echtes" HDR vom PS3 abhängig .... ;)
und das die Aktuellen karten 128bit HDR können hab ja nich behauptet ....das die max 16BIT pro Farbkanal haben war mir auch bekannt ;)

(im Prinzip wäre HDR auch auf DX 8 umsetzbar .... aber die leistung würde nie auf mehr als 1FPS steigen ;) )
Sollte ich jetzt falsch liegen, wäre es nett mir den genauen zusammenhang von PS3.0 und HDR zu erklären;)
Und wegen echte HDR geht nur mit PS3? 64Bit HDR ist kein "echtes"...echtes HDR kann leider noch keine Karte...


Janchu88 schrieb:
(im Prinzip wäre HDR auch auf DX 8 umsetzbar .... aber die leistung würde nie auf mehr als 1FPS steigen ;) )
Ach komm schon, 2FPS werden es schon noch werden:haha:
 
Zuletzt bearbeitet:
Tectrex schrieb:
Sollte ich jetzt falsch liegen, wäre es nett mir den genauen zusammenhang von PS3.0 und HDR zu erklären;)
Und wegen echte HDR geht nur mit PS3? 64Bit HDR ist kein "echtes"...echtes HDR kann leider noch keine Karte...
32 bit fliesskommagenauigkeit sind nur mit dem PS3 möglich ... und da 32bit für echtes High dynamic range rendering benötigt werden (klugscheiss :d ) kannste dir wohl denken wo der zusammenhang liegt ;)
 
Ja nur kann zur zeit keine karte 32bit hdr.....

32 bit fliesskommagenauigkeit sind nur mit dem PS3 möglich

das stimmt nicht und steht in keinem zusammenhang.eine karte kann ja 32 bit genauigkeit durch ihre shader darstellen ohne sm3 compatibel zu sein.Solange ein paar specs nicht erfühlt werden is sie ja nur z.b. sm2.0b compatibel.
 
was dann das HDR in HL² : Lost Coast oder DoD²?

warum läuft das super auf hoch auf meiner PS2 karte (siehe profil) und sieht auch so aus (hab das PS3 HDR schon in FarCry beim kumpel mit ner 6800GT gesehen!)
 
sklave_gottes schrieb:
Ja nur kann zur zeit keine karte 32bit hdr.....



das stimmt nicht und steht in keinem zusammenhang.eine karte kann ja 32 bit genauigkeit durch ihre shader darstellen ohne sm3 compatibel zu sein.Solange ein paar specs nicht erfühlt werden is sie ja nur z.b. sm2.0b compatibel.
aber es gibt keine solche karte und ich bin mir ziemlich sicher es wird auch in zukunft keine geben :d
@Haro ... omg nich zugehört? das is ein simuliertes HDR mit je 8bit oder 16bit fliessgenauigkeit pro kanal ....


EDIT: Die G70 reihe kann (4x32)128bit HDR ... ich denke ATI´sR520 wohl auch
 
Zuletzt bearbeitet:
Nur doof das alle immer HDR mit SM3 im zusammenhang ziehen und denken mann braucht SM3 man kann einer karte auch 32Bit pro kanalgeben und nur SM1 und eine engine machen und es würde dann immernoch schnell laufen wenn die einzelnen berechnungseinheiten schnell genugn sind!


SM3 hat nicht direkt wa smit HDR zu tun nur weil es gleichzeitig rauskam :angel:
 
Tectrex schrieb:
Ich hoffe Du meinst OC, denn non OC ist eine GT minimal schneller wie eine X8xx XT PE....OC ist die GT klar schneller wie eine X8xx XT PE.
Wegen der BQ, klar einige übertreiben es, sowas kann ich auch net leiden, aber es gibt genug Leute (wie dukee) die übertreiben auch gerne, sowas gibt es auf beiden Seiten.
Die BQ ist auf jeden fall bei der ATI besser, da kann hier jeder sagen was er will, nicht umsonst gibt es genügend vergleiche wo das bewiesen ist. Aber klar, das sind bestimmt alles Fakes:haha: . Und deswegen sehe ich auch die X1800XL vor der GT, denn eine GT ist bei gleiche BQ auf jeden Fall langsamer, nichts mit mehr Rohpower, wenn ich sowas lese muß ich immer schmunzeln...wenn die ATIs genau so ne BQ hätte, will ich ja net wissen wie es dann aussehen würde. Ich bin auf jeden fall froh, das ich wieder umgestiegen bin, erstens, kein Flimmern, bessere BQ und gerade unter HQ mehr Power!


Die X800XT ist gerade bei Standardtakt langsamer als die 7800GT.
 
Ich kann die Aussage von "matschiger" Darstellung noch nicht nachvollziehen. Weiter oben habe ich Lost Coast Bilder bei HQ (alles an) und einfachen Quality-Settings gepostet. Wo muss ich da matschige Darstellung erkennen (bitte einmal umranden)?
 
Riverna schrieb:
Die X800XT ist gerade bei Standardtakt langsamer als die 7800GT.
Da ist klar...
Gibt aber auch User, die generell nie OC betreiben.
Da bin ich mit meiner X800 Pro Vivo (mit OC) einer 7800GT (ohne OC) hart an den Fersen.
Man kann quasi eine Generation überspringen. Non-OC´ler natürlich nicht...
 
Snoopy69 schrieb:
Da ist klar...
Gibt aber auch User, die generell nie OC betreiben.
Da bin ich mit meiner X800 Pro Vivo (mit OC) einer 7800GT (ohne OC) hart an den Fersen.
Man kann quasi eine Generation überspringen. Non-OC´ler natürlich nicht...


Das hat auch niemand bestritten ;) Sagt ja auch keiner das die X800 Karten langsam sind, sondern eher das Gegenteil.
 
Riverna schrieb:
Das hat auch niemand bestritten ;) Sagt ja auch keiner das die X800 Karten langsam sind, sondern eher das Gegenteil.
Allerdings muss ich dafür meine X800 mit mehr Spannung quälen. :haha:
Geht aber schon 6 mon. gut (12 mon. hab ich sie schon)
 
Eben und gegen eien übertaktete 7800GT hat keine X800 eine Chance.

8886100k.JPG


Wenn man bedenkt das die Karte nur luftgekühlt ist ;)
 
Riverna schrieb:
Eben und gegen eien übertaktete 7800GT hat keine X800 eine Chance.

8886100k.JPG


Wenn man bedenkt das die Karte nur luftgekühlt ist ;)

Aquamark ist nun plötzlich gut um zu vergleichen. Du solltest auch den Preis bedenken, meine Karte hat 180€ gekostet, deine 300€, da wäre es geradezu ein Witz wenn sie nicht schneller wäre.
Meine Karte macht bei der GFXScore 13300 Punkte, was genau 85% von deinem Wert sind. Deine Karte macht bei 3DMark05 8300 Punkte meine 7000, das sind genau 84% von deinem Wert. Du siehst so weit liegen Aquamark und 3DMark05 nicht auseinander.

ViruZ schrieb:
so hab nun alle 12 Seiten gelesen...
zum flimmern worums ursprünglich mal ging... bei NFS MW gibts bei mir an einer stelle im game ein flimmern.... also jedesmal wenn ich da vorbeifahr seh ichs 0.1sec flimmern... ansonsten noch nix vom flimmern bemerkt...
zum rest ka... werde hl2 ma wieder installen und bis zu der stelle spielen...

aber ganz ehrlich mich juckts net ob die kanten jetzt alle schön grade sind oder villeicht n bissl verwaschen... beinem egoshooter hab ich keine zeit die schöne landschaft und die ach so schönen texturen zu bewundern...

Wenn du Rennspiele wie GTL oder GTR oder Colin05 zocken würdest, dann würdest du anders urteilen. Gerade da fällt Flimmern und schlechte Texturen stark auf.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=263599
 
Zuletzt bearbeitet:
Mumins schrieb:
Wenn du Rennspiele wie GTL oder GTR oder Colin05 zocken würdest, dann würdest du anders urteilen. Gerade da fällt Flimmern und schlechte Texturen stark auf.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=263599

jo ich spiele aber weder GTL noch GTR und ebenfalls kein Colin05.......

wie gesagt bei NFS MW (Rennspiel) gibts bei mir nen flimmern an einer stelle im game... jedesma wenn ich vorbei war seh ichs kurz... aber ansonsten sieht man da nix von flimmern... bei andern games ises bis jetzt nochnet aufgetreten... also kann ich ansich mit meiner graka zufrieden sein... :)
 
Mumins schrieb:
Aquamark ist nun plötzlich gut um zu vergleichen. Du solltest auch den Preis bedenken, meine Karte hat 180€ gekostet, deine 300€, da wäre es geradezu ein Witz wenn sie nicht schneller wäre.
Meine Karte macht bei der GFXScore 13300 Punkte, was genau 85% von deinem Wert sind. Deine Karte macht bei 3DMark05 8300 Punkte meine 7000, das sind genau 84% von deinem Wert. Du siehst so weit liegen Aquamark und 3DMark05 nicht auseinander.


Merkst du nicht das ich auf deine Komentare nicht eingehe? Ich hab keine Lust mich mit dir zu Unterhalten. Es geht hier um die 7800GT und X1800XL und nicht um deine schimmlige GTO raff das endlich. :rolleyes: Deine Karte mag zwar fast so schnell sein wie meine 7800GT aber dafür hab ich noch Luftkühlung drauf und vorallem hab ich noch meine Garantie...

Du machst nun seit zig Seiten nVidia schlecht, wir haben es nun kapiert und es nervt gewaltig. Kauf dir eine X1800XL oder 7800GT dann kannst du vielleicht endlich mal was gescheites und passendes zum Thema posten weil bissher war JEDER Beitrag nur rumgeflamme.
 
Zuletzt bearbeitet:
Riverna schrieb:
Merkst du nicht das ich auf deine Komentare nicht eingehe? Ich hab keine Lust mich mit dir zu Unterhalten. Es geht hier um die 7800GT und X1800XL und nicht um deine schimmlige GTO raff das endlich. :rolleyes: Deine Karte mag zwar fast so schnell sein wie meine 7800GT aber dafür hab ich noch Luftkühlung drauf und vorallem hab ich noch meine Garantie...

Du machst nun seit zig Seiten nVidia schlecht, wir haben es nun kapiert und es nervt gewaltig. Kauf dir eine X1800XL oder 7800GT dann kannst du vielleicht endlich mal was gescheites und passendes zum Thema posten weil bissher war JEDER Beitrag nur rumgeflamme.


Ich habe auch Luftkühlung drauf. Ich mach hier nicht Nvidia schlecht, sondern bringe Fakten und mit meiner Meinung bin ich nicht allein. Klar hast du Garantie, wer die Karte ans Maximum oct, verliert sie ja auch nicht! Du hast dann im Schadensfall nichtmal den Arsch in der Hose das Ding wegzuwerfen und ne neue zu holen. Nein du bescheisst dann den Händler oder Hersteller, indem du ihm deine geocte Karte als Garantie- oder Gewährleistungsfall schickst.

Im übrigen hast du behauptet, dass deine Karte um Welten schneller ist als meine.
Lerne erstmal richtig schreiben, es heisst rumgeflame nicht geflamme.
 
Zuletzt bearbeitet:
Mumins schrieb:
Ich habe auch Luftkühlung drauf. Ich mach hier nicht Nvidia schlecht, sondern bringe Fakten und mit meiner Meinung bin ich nicht allein. Klar hast du Garantie, wer die Karte ans Maximum oct, verliert sie ja auch nicht! Du hast dann im Schadensfall nichtmal den Arsch in der Hose das Ding wegzuwerfen und ne neue zu holen. Nein du bescheisst dann den Händler oder Hersteller, indem du ihm deine geocte Karte als Garantie- oder Gewährleistungsfall schickst.

Im übrigen hast du behauptet, dass deine Karte um Welten schneller ist als meine.
Lerne erstmal richtig schreiben, es heisst rumgeflame nicht geflamme.


Ich habe noch nie eine Karte zurück geschickt, mir ist auch noch nie eine Grafikkarte kaputt gegangen. Von daher ... ausserdem kannst du überhaupt nicht beurteilen was ich mache und was nicht.

Oh das eine m zuviel erregt dich jetzt so das du ein feuchtes Unterhösen hast was? :rolleyes:

Ausserdem zeig mir mal wo ich geschrieben habe das die 7800GT um Welten schneller ist :rolleyes: Du leides doch an Realitätsverlust...
 
Riverna schrieb:
15% ... wovon träumst du eigentlich Nachts? Selbst meine X800XT ist teilweise um Welten langsamer. Aber ich hab auch gar keinen Bock hier auf einen längen Vergleich. Du beurteilst hier Hardware die du nicht mal in Aktion gesehen hast. Das wollte ich damit ausdrücken aber das hast du anscheinend nicht verstanden.



Was das nun mit dem Thema hier zu tun hat lässt du uns wohl erraten? Ausserdem ist das fast 2 Jahre her, lustig das es Leute gibt die sich daran heute noch erregen.

Was ist das? Weisst schon nicht mehr was du geschrieben hast?
 
Zuletzt bearbeitet:
Mumins schrieb:
Was ist das? Weisst schon nicht mehr was du geschrieben hast?


Ich weiß sehr gut was ich geschrieben habe, aber ich merk schon wenn keine richtigen Argumente mehr kommen dann zieht wohl nur noch die Methode mit der schlechten Rechtschreibung. Welche wohl bei einem Flüchtigkeitsfehler nicht wirklich berechtigt ist.

Und wie gesagt geht es hier um die 7800GT und die X1800XL,deine Hauptaufgabe ist seit dem Anfang an die nVidia Karten schlecht zu machen wegen der schlechten Bildqualität. Klar die Qualitätist etwas schlechter als die von ATI, dass ist aber schon seit längerem bekannt. Aber sie ist nicht so schlecht das man von einem Matschbild sprechen kann. Und anhand von Janchu´s Screens sieht man auch das man eine nVidia Grafikkarte so einstellen kann das der Unterschied noch wesentlich geringer ist als er sowieso schon ist.

Ich denke nun ist alles gesagt und man könnte diesen sowieso schon unsinnigen Thread nun endlich schließen.
 
Riverna schrieb:
Ich weiß sehr gut was ich geschrieben habe, aber ich merk schon wenn keine richtigen Argumente mehr kommen dann zieht wohl nur noch die Methode mit der schlechten Rechtschreibung. Welche wohl bei einem Flüchtigkeitsfehler nicht wirklich berechtigt ist.

Und wie gesagt geht es hier um die 7800GT und die X1800XL,deine Hauptaufgabe ist seit dem Anfang an die nVidia Karten schlecht zu machen wegen der schlechten Bildqualität. Klar die Qualitätist etwas schlechter als die von ATI, dass ist aber schon seit längerem bekannt. Aber sie ist nicht so schlecht das man von einem Matschbild sprechen kann. Und anhand von Janchu´s Screens sieht man auch das man eine nVidia Grafikkarte so einstellen kann das der Unterschied noch wesentlich geringer ist als er sowieso schon ist.

Ich denke nun ist alles gesagt und man könnte diesen sowieso schon unsinnigen Thread nun endlich schließen.


Du hast bis jetzt noch nicht geschnallt worum es geht. Die Karten der letzten und auch neuen Generation haben genug Power, dann so mieses AF zu bieten ist eine Frechheit. ATI hat das begriffen, Nvidia nicht. Es wäre kein Problem für Nvidia besseres AF anzubieten, aber die Balkenlänge geht vor. Der Großteil der User hat natürlich null Plan von AF, kritische User gibts kaum, was natürlich ein Freibrief für die Hersteller ist so nen Dreck anzubieten. Es kann keine Lösung sein, Transparenz AA hinzuzuschalten, um mieses AF zu kaschieren, denn das kostet Leistung und nicht zu knapp. Oder wärst du dafür, dass nun in allen Benches ATI mit 4AA+16HQAF gegen Nvidias 4TRSSAA+16HQAF gebencht wird?

Wenn du so gut weisst was du geschrieben hast, warum behauptest du dann das Gegenteil?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh