***8800GTS vs. 2900XT THREAD***

auf dem 22" TN ?? aha. :(



Vergiss es ;) ne passende Antwort hätte sein können: "Auf ein CRT (=Röhrenbildschirm), weil dein TFT eh nur 60 frames pro Sekunde anzeigen kann und jedes weitere Frame zu Tearing führt..".



Ohne Vsync normal. Da zeigt mir Fraps auch 100+ (average)-frames mit nur einer Karte an.


Bioshock, Vista, DX10, 1x 8800GTX ohne VSync, C2D E6600, 2GByte RAM, 500W Netzteil (Peakwerte während des Spielens von 356W)

2007-09-08 13:14:56 - Bioshock
Frames: 98086 - Time: 979938ms - Avg: 100.094 - Min: 29 - Max: 275
2007-09-08 17:42:47 - Bioshock
Frames: 42375 - Time: 383572ms - Avg: 110.474 - Min: 36 - Max: 283​

nur wer will sich und seinem TFT das antun? Solche Spiele sind doch prädestiniert auf Flachbildschirmen mit VSync gespielt zu werden. Alles andere ist niemals eine saubere Darstellung.



Wozu, denkst du, könnten Aussagen über maximal mögliche Frames relevant sein..?


Grüße,
Euer George


Is das normal das die Quali der 8800GTX so mies is? Sieht eher nach medium Details aus.
Und komisch 29fps min is naja,....... ich hab 48min in 1280 4xAA 8xAF max Details DX 9. (mir is AA wichtiger.)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
vllt steht der Treiber nicht auf Qualli sondern auf Leistung!?
 
Treiber läuft auf default (quality) und im Spiel war alles außer VSync an (edit:globale Beleuchtung aus).
Habe noch ein paar Bildchen gemacht und 16xAF forciert; MSAA gibts derzeit ja unter D3D10 nicht.




Bioshock, Vista, DX10, 1x 8800GTX ohne VSync, 16xAF forciert, C2D E6600, 2GByte RAM, 500W Netzteil

Ich guck mir das aber mit dem nächsten Treiber nochmal an.
Unter DX9 kenne ich es nur von meiner ATI.


Grüße,
Euer George
 
Zuletzt bearbeitet:
hast du auch global lighting aktiviert? Für optimale Bildqualität sollte das deaktiviert sein.

mfg
 
das ist deaktiviert -sieht man doch ;)


Grüße,
Euer George
 
Zuletzt bearbeitet:
Ehrlich gesagt keine Ahnung, hatte das noch nie aktiviert, weiß also nicht wie es dann ausschaut ;)
Dann is ja gut.
 
@ Georg:
Könntest du mir das bitte mal erklären mit dem Vsync. Warum wird dadurch die BildQualli besser? Ich habe auch n TFT aber Vsync eigentlich immer aus, weil ich dachte das die Frames dadurch noch weiter runter gehen, bzw. sogar halbieren. Ich dachte Vsync is nur dafür da, das das Bild etwas ruhiger wirkt. Aber ich hab da auch net so die Ahnung von.
Thanx.
 
Dass sich die Framerate verringert stimmt - auf die Bildwiederholfrequenz des Displays. Das Bild wird besser, weil die Bilder auf dem TFT nicht zerreissen, wenn die Framerate zur BWF passt (=kein Tearing). Es wirkt dann alles aus einem Guß bzw. konstant und sauber.

die negativen Aspekte des Vsync werden durch den Tripplebuffer abgefangen.

http://www.3dcenter.org/artikel/2004/03-12_a.php


Grüße,
Euer George
 
Vsync hin oder her, sein Bild ist doch zum kotzen und ich würd mich erschiessen wenn ich das so hätte:fresse:
und mit nerm GTX in DX10 über 100 FPS, wers glaubt wird seelig, da ist MEDIUm drin oder was, sieht man ganz deutlich das NIICHT alle MAX ist, Flying hat mal Screens in DX10 gepostet die waren um welten besser als dieser Müll da oben :haha:
 
Treiber läuft auf default (quality) und im Spiel war alles außer VSync an (edit:globale Beleuchtung aus).
Habe noch ein paar Bildchen gemacht und 16xAF forciert; MSAA gibts derzeit ja unter D3D10 nicht.




Bioshock, Vista, DX10, 1x 8800GTX ohne VSync, 16xAF forciert, C2D E6600, 2GByte RAM, 500W Netzteil

Ich guck mir das aber mit dem nächsten Treiber nochmal an.
Unter DX9 kenne ich es nur von meiner ATI.


Grüße,
Euer George

diese verwaschenen texturen schrecken mich ab eine gts oder gtx zu ordern:fresse:

ich werde wohl wieder zu ati schwenken:)
 
@zocker
welches meinst du denn? Sicher nicht die letzten mit maximalem AF, oder?

ansonsten musst du dir leider die Unterstellung gefallen lassen, dass du keine Ahnung von irgendwas hast. Das fängt bei Technik an, zieht sich über Zusammenhänge und endet irgendwo bei Ausdrucksweise.

Keinem hier wird etwas entgehen, wenn er deine Postings ignoriert. Ich fange mal an, sonst rege ich mich noch die halbe Nacht über soviel ....heit auf.

wie kann man hier Postings von nervigen Usern ausblenden?


Grüße,
Euer George
 
Zuletzt bearbeitet:
@erwin

man muss nicht alles nachplappern. Wo ist da eine verwaschene Textur, die auf ATI nicht genauso aussieht?

35708088wx4.jpg


wer mit den Texturen nicht einverstanden ist, sollte am PC keine Konsolenportierungen spielen.


Grüße,
Euer George
 
zocker, egal ob die Screens nicht ganz OK sind oder dort irgendwie Quallimäßig nicht alles drin ist was geht, bleib bitte Sachlich und werd nicht beleidigend, sonst kommen die Mods wieder wischen... (so langsam wird nämlich der Wischlappen dünn und der Thread könnte bald dicht sein, wenns hier jeden abend ausartet)

EDIT:
@George.Lucas
mach mal bitte das Pic kleiner, das zieht das ganze Forum breit...
max. Breite ist glaubt ich 900Pixel.
 
Zuletzt bearbeitet:
Das einzige, das auf die Screenshots eine Auswirkung hat, ist die Jpeg-Komprimierung - alles andere ist 100% Bioshock. Wer eine Szene am Wickel hat, die weniger geblurrt oder mit Postprocessing überzogen ist, soll sie mal posten - ich werde die nächste Schöne auch knipsen.

btw. ich kann in der Forceware zwischen Quality (default) und HighQuality hin- und herschalten, wie ich lustig bin - davon bekommt Bioshock auch keine HiRes-Texturen.

Morgen mache ich mir mal den Spaß, den Spielstand auf einen ATI-Rechner zu übertragen.

Ähm.. Dass die Tussi ^^ da oben im Lichtnebel steht, wurde aber auch von den Einäugigen unter den Blinden erkannt, oder ?! Nur so ne Frage, falls vielleicht jemand der Herren gar kein Bioshock sein Eigen nennt und vielleicht gar nicht weiß, wie es aussieht.. Das Spiel soll so aussehen - es hat keine besseren Texturen.



Grüße,
Euer George
 
Zuletzt bearbeitet:
das game hatte noch nie höher aufgelöste texturen... der content ist identisch mit der xbox360 version.

@george.lucas

halt dich lieber ans 3dcenter forum... ich schätze, dass du dort ohnehin schon länger unterwegs bist ;) hier findest du nur leute, die die leistung einer graka anhand 3dmark beurteilen und sofort an die decke gehen, wenn man unsinnigen behauptungen kritisch begegnet.
 
Zuletzt bearbeitet:
Will mich hier nicht gross einmischen^^ , hab aber noch ein vergleichbild zwischen einer 2900XT und einer 8800gts:)



Das Ati Bild ist doch wesentlich schärfer, vllt ist auch nur mein rechtes Brillenglass ein bissi verschmiert:wink:

mfg
 
omg ,könnt ihr auch sachlich diskutieren ,ist in diesem thread wohl nicht möglich jetzt weiss ich auch warum ich mich hier ausgeklinkt habe
ob das ati bild schärfer ist das kann ich so nicht sagen ,aber irgendwie sieht das ati bild schöner aus aber wenns verschiedene rechner sind gibst ja 100gründe warum das bild schlechter aussieht
 
Zuletzt bearbeitet:
die ati scheint zumindest trinlinear zu filtern, die nvidia bilinear, daher wohl der eindruck der vermatschten texturen. das hat eher was mit den treibereinstellungen zu tun als mit der darstellung der grafikkarten ;)
 
Zuletzt bearbeitet:
Also bei den Screenshots von selfdistruct sieht es fast so aus als wären die Einstellungen unterschiedlich wie es schon acro erwähnt hat.
Kann mir kaum vorstellen das bei genau gleicher Einstellung so ein großer Unterschied zwischen ATI und NVidia ist.
 
die ati scheint zumindest trinlinear zu filtern, die nvidia bilinear, daher wohl der eindruck der vermatschten texturen. das hat eher was mit den treibereinstellungen zu tun als mit der darstellung der grafikkarten ;)


:hail: oder brilinear vs. 1st stage tri + restl. stages bi. (+lausig komprimiert) :hail:

zum glück gibt es 2xAF beim G80 immer für lau, sodass man 0AF eigentlich nie ertragen muss.

ps.
das Bild ^^ da oben mal ne nummer ansehnlicher:




Grüße,
Euer George
 
Zuletzt bearbeitet:
Um das mit den fehlerhaften Vergleichsbildern gleich mal aus dem Weg zu räumen hier mal ein Bild mit meiner GTS @stock:




Die fps lassen wir jetzt mal aussen vor, die variieren ja je nach Position extrem.

mfg

edit: Mist zu langsam @George ;)
blöde win-wechslerei...
 
Zuletzt bearbeitet:
Nur mal so am rande ihr experten von wegen af etc.
Bei Bioshock ist IMMER 8xAF eingeschaltet, das is vom SPIEL festgelegt und läßt sich nur über einen ini eintrag ändern. (in der default.ini)
Also is das ganze getuhe vonwegen bei der Geforce fehlt AF blödsinn.
 
@Slup
Nein, es ist kein Blödsinn. Wenn eine Applikation AF fordert und AF im Treiber ausgeschaltet ist, dann gibt es kein AF. Wenn es kein AF gibt, gibt es billinear, brillinear oder trilinear gefilterte Texturen; abhängig von der Hardware und der jeweiligen "Optimierungs-Einstellung" im Treiber.

Ingame AF und Treiber AF ist nicht das Gleiche. Beim ingame-AF (Treiber auf anwendungsgesteuert) bekommen nur die Texturen volles AF ab, die vom Entwickler für diesen Filtergrad vorgesehen sind. Im Treiber forciertes AF wirkt global auf alle Texturen, auch auf die, die es vielleicht gar nicht bräuchten und haben sollen.

Die im Treiber eingestellte Filterung hat immer Vorrang vor der Spieleinstellung. Bioshock unter Vista scheint eine Ausnahme zu sein; da sieht man nicht nur keine Unterschiede - da wird wohl auch immer 4xAF verwendet.
Hier mal die Quelle meines Bildes.

http://www.pcmasters.de/forum/108265-post77.html

Hoff er nimmts mir nicht übel *g* sonst *kecksgeb*
Da hat der Bildersteller gut beobachtet, was ich weiter vorn schon geschrieben habe: Beim G80 kann und sollte man mindestens 2xAF einschalten. Das sieht immer besser aus, als 0AF und kostet architekturbedingt immer 0 (Null) Leistung.

btw. wer sich eine 500 Euro Graka kauft, wird ganz sicher nicht ohne AF spielen ;) und nach dem was ich jetzt schon alles lesen musste, würde es mich nicht wundern, wenn hier noch einer auftaucht, der mir erzählt er zockt sogar mit zwei Karten ohne AF.

btw, auf einigen (den ersten) Bildern, die ich von Bioshock gemacht habe, war tatsächlich high-performance in der Forceware aktiv. Insofern sind Einwände bzgl. der Bildqualität berechtigt. Die späteren Bilder (die mit forciertem AF) sind mit Forceware-Standard-Settings gemacht worden!

Grüße,
Euer George
 
Zuletzt bearbeitet:
Übrigens war bei meinem obigen Screenshot im Treiber KEIN AF aktiviert, sondern alles auf Application gelassen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh