Highend oder Übergang bis DX10?

Nightspider schrieb:
[...]
Ich konnte mit meiner billigen 6600Gt damals FarCry mit max.Details in 1024 mit HDR mit 30 FPS spielen.
[...]


Bitte um einen Screen, da eine 6600GT alleine durch das HDR ohne das restliche FarCry schon fertig mit der Welt wäre.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist ist hier doch gar nicht das Thema! mach nen neuen Thread auf oder klärt das in ICQ oder sonst was bitte....
 
Bitte um einen Screen, da eine 6600GT alleine durch das HDR ohne das restliche FarCry schon fertig mit der Welt wäre.

Ich weiß ja nicht wo du lebst :fresse:
Dimensionlücke, wo alles halb so schnell geht ? xD

Ich sagte mit meiner damaligen 6600GT. Die hab ich lange netmehr.
Aber ich weiß gaaaaanz genau, dass es mit 30 fps mit HDR lief.
Dazu hatte ich einen 4000+ damals. +1024 MB Dualchannel Ram.

Ohne HDR lief alles auf 1600*1200 auf höchsten Details mit 30fps.

Das habe ich mehrmals getestet.

Alle sagen hier das d3d10 unmengen an Power fressen wird.. so viel das die g80 oder der r600 damit nur Anfangs zurecht kommen wird...

Wieso alle ? Ich sage das Gegenteil und viele andere hier auch !!?

D3D10 bringt einen kleineren Overhead, wodurch man mehr FPS bekommt.
Gleichzeitig kann man neue Shader nutzen um bessere Effekte einzubauen.

Selbst wenn man mit D3D10 alles auf's Maximum stelle (mit D3D10 Effekte) und es langsamer läuft als unter DX9, so läuft es trotzdem noch schnell mit einer GeForce 8800 GTX oder Ati 2800 XTX or something else.... :teufel:

Also was interessiert es dich, wenn du mehr FPS als unter DX9 haben willst, stell die D3D10 Effekte aus, dann hast du sicherlich 10-20 % mehr fps. :d
 
Bin ich bekloppt? ne d3d10 karte und dann die effekte aus? lol! :fresse: Das ist mit ein Grudn wieso ich auf den G80 warte :d

Unter alle meinte ich eher das ich das hier oft höre ^^ Lieber weniger FPS aber dafür ALLES im schönen glanz wie es sich für ne 500€ Karte gehört :d
 
Naja ich bin einer von der sparte jener die sich jetzt eine highend graka kaufen.
Ich will nämlich nicht um die 500 euro (oder mehr)+vista plechen um eine next gen graka zu haben und sie auch richtig nutzen zu können.
Da wart ich lieber bis die 2 oder 3 gen grakas raus ist und vista ihre Geburtsmaken abgelegt haben wird (es ist ein Microsoft Produkt jeder der glaubt das es von anfang an gut laufen wird, halte ich für einen sehr phantasie begabten Menschen)
Das andere argument wurde hier breit getreten als hier über die Geforc6 geredet wurde und vielleicht wiederholt sich ja auch dieses debakel. Das also die grakas in leistung ins bodenlose fallen sobald die direct3d10 spiele erst richtig ins rollen kommen. Dh ich hätte eine dx10 graka der first gen aber wenn die erste grosse welle von dx10 spielen kommt taugt sie zu wenig um sie gut abzuspielen. Wo dann die dx9 lachen kann weil sie wird dann nicht so abbrechen da sie ja sowieso nicht dx10 darstellen kann.
p.s: das x800 mit neuen spielen besser zurande kommt liegt einfach darin das sie sm2 berrechnet und nicht wie die 6800er sm3...
 
Gahmuret schrieb:
p.s: das x800 mit neuen spielen besser zurande kommt liegt einfach darin das sie sm2 berrechnet und nicht wie die 6800er sm3...
Ich bin der Meinng, dass Spiele das bei der Installation schon von vorherein so einstellen, dass für die 6800 zB überhaupt nur PS2 eingesetzt werden.
Sonst fallen die wie geschrieben ins "bodenlose".
Ich empfehlen nochmals einigen hier, RTHDRIBL mal zu testen. Es zeigt vollwertiges HDRR in 16bit und bei passender Hardware sogar AA (heißt da Multisampling) dazuschaltbar on the fly.
Wie hier jemand behaupten kann, es wäre kein vollwertiges HDRR wie in Spielen eingesetzt wird ist ja völlig sinnfrei :lol:
Ich meine mich zu erinnern, dass ich es schon letztes jahr auf meiner Ex-x850xt benutzt hab. Dazu gibt es sogar eine "Read Me" ;)
 
Zuletzt bearbeitet:
du hast da was falsch verstanden.
Die 6800 hat die technik drauf für sm3, kann sie aber nicht leisten da die spiele mit sm3 zu anspruchsvoll wurden
die x800 hat sm2.1 und hat somit diese problematik umschifft indem sie gar nicht erst versucht sm3 zu rendern sondern eine etwas polierte sm2 hernimmt.
Sowas sollte übrigens zu denken geben was die 1gen der sm4 Modelle anbelangt, denn wer weiss ob sich dieses "Debakel" nicht wiederholt, nur das diesmal beide ATI und Nvidia ins fettnäpfchen treten?
 
also ich kann mit meinem sys( siehe signatur) Splinter Cell Chaos Theory mit 1280*1024 und alle einstellungen auf maximum( aber AA+AF aus) mit 20-30FPS zocken, und dass ohne übertaktung... aber wenn ihr meint dass es net geht, ändert ja nix an tatsachen ^^ 6600GT is einfach super preis/leistung... vor allem da es die auch für agp gab :)

edit: mist, bei dem post funzt die sig. nochnet... also hier das sys:
athlonXP 2600+@2,2GHz,1,725V - K7N2 Delta-L - GeForce 6600GT - 1024MB DDR400 RAM - 160GB + 30GB HDD - 17" Benq FP767-12
 
Zuletzt bearbeitet:
Gahmuret schrieb:
p.s: das x800 mit neuen spielen besser zurande kommt liegt einfach darin das sie sm2 berrechnet und nicht wie die 6800er sm3...

:eek:

Hier liegt im Rating gerade mal die x850xt knapp vor ner 6800GT.
Naja, wenn man ATI-Fanboy ist, ist man ja auf dem Auge blind.

http://www.computerbase.de/artikel/...force_7600_gs/19/#abschnitt_performancerating


Ich bin ja seit der 9700pro eigentlich eher ATI-Fan und werde mir wohl auch wieder eine x1900xx kaufen oder die folgende dx10, aber ich habe ja nun die
X800pro gehabt und die 6800GT 256MB und die 6800GT lag bei mir ganz klar in der Spieleperformance vorne und sie hatte nunmal die bessere Technik.
Ich kenne kein Spiel, das so programmiert wurde, dass einer x8xxx HDR
erlaubt einzuschalten. Allenfalls Bloom und andere Effekte...

Und selbstverständlich konnte ich Oblivian mit HDR und einigermassen ruckelfrei spielen. Sicher gabs auch Stellen, wo es arg ruckelte, aber es ging.

So und nun halte ich mich raus, denn Fanboy bin ich nicht und hier wimmelts mir zu arg von der ATI-Fraktion, die sofort aufjault, wenn man positives über Nvidida schreibt.

h.
 
hartcore schrieb:
zu arg von der ATI-Fraktion, die sofort aufjault, wenn man positives über Nvidida schreibt.

h.
Naja, Einbildung ist ja auch eine Art Bildung. Seit dem FX Debackel bin ich aber tatsächlich mit Leistung von ATI im Einklang. Wenn Du das Fanboygetue nennst, soll es eben auch so sein :d
Was hast Du noch gleich positives über nVidia geschrieben, das die (ich) Fanboys "aufheulen", hab nix sonderliches gefunden?
Hast Du mittlerweile mal RTHDRIBL getestet? Wenn die 6800 was taugt, kann sie das HDRR samt Multisampling darstellen mit 30fps min.
Ich hab meinen Text übrigends drei mal vorher editiert und die schärfsten Absätze wieder rausgenommen bevor ich ihn Online stelle :angel:
 
derMeister schrieb:
Was hast Du noch gleich positives über nVidia geschrieben, das die (ich) Fanboys "aufheulen", hab nix sonderliches gefunden?

Lies selbst nach. Ich habe doch gewagt zu behaupten, dass eine 6800GT
leistungsmässig und techn. einer x800pro überlegen ist.

Hast Du mittlerweile mal RTHDRIBL getestet? Wenn die 6800 was taugt, kann sie das HDRR samt Multisampling darstellen mit 30fps min.
hab keine 6800er mehr. Beide verkauft (6800GS und 6800GT) und als Ersatz eine GF4 Ti4200 drin. Damit probier ichs lieber nicht :d

Steig nun um auf PCIe, was mein Dual-sata2 ja auch beherrscht.
Leider kommt Preis-leistungsmässig wieder nix an eine NV in meiner Preisklasse ran. Wird wohl eine 7600GT oder 7600GS ( 130,-- bzw. 90,--)

Ich hab meinen Text übrigends drei mal vorher editiert und die schärfsten Absätze wieder rausgenommen bevor ich ihn Online stelle :angel:

Das rate ich allen Heißspornen, Text erstmal stehen lassen und tief durchatmen....
besonders wenn man ATI-Fanboy ist :haha:...

gilt aber natürlich auch für NV-Fanboys ;)


h.
 
Jup, 7600GT ist schon für den Preis absolut top, da macht man nix falsch. Die ist sogar teilweise so schnell wie eine 6800Ultra, mal mehr mal weniger.

Lies selbst nach. Ich habe doch gewagt zu behaupten, dass eine 6800GT leistungsmässig und techn. einer x800pro überlegen ist.
naja:
http://www.pc-max.de/forum/article.php?PHPSESSID=&a=364&p=8
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=172&seite=11
Man kann natürlich viel finden dazu, beide würd ich mal sagen ein Unentschieden. Dicker Vorteil allerdings x800Pro und XT damals, deutlich günstiger gewesen bei der Einführung als die 6800GT und Ultra Karten.
 
derMeister schrieb:
naja:
http://www.pc-max.de/forum/article.php?PHPSESSID=&a=364&p=8
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=172&seite=11
Man kann natürlich viel finden dazu, beide würd ich mal sagen ein Unentschieden. Dicker Vorteil allerdings x800Pro und XT damals, deutlich günstiger gewesen bei der Einführung als die 6800GT und Ultra Karten.

Wegen dem Preis hatte ich ja auch zuerst eine x800pro.

Ich halte mich überigens gerne an dieses Performancerating aus vielen Spielen und synthetischen Benches:

http://www.computerbase.de/artikel/...force_7600_gs/19/#abschnitt_performancerating

http://www.computerbase.de/artikel/hardware/grafikkarten/

Die 7600GS gibts ja nun auch mit DDR3, da ist der Unterschied zur gt nicht mehr so groß. Ich warte nochmal Tests ab und dann entscheide ich mich.

h.
 
was muss man bei RTHDRIBL alles ein/umstellen? in der standardeinstellung hab ich knapp 50FPS... denke nicht, dass das die einstellung ist, an die du gedacht hast ^^
 
C4m3mb3r+ schrieb:
was muss man bei RTHDRIBL alles ein/umstellen? in der standardeinstellung hab ich knapp 50FPS... denke nicht, dass das die einstellung ist, an die du gedacht hast ^^
Unter File; Config Display; Display Mode Setting;Fullscreen;Resolution=Deine Auflösung wählen.
Standartmäßig ist auch schon 4xAA=Mutlisampling voreingestellt. Am besten im Treiber auf Anwendungsgesteuert setten.
Den Rest lassen wie er ist.
 
Zuletzt bearbeitet:
also ich hatte nie ein ATI Grafikkarte :eek: also fanboy würde ich nicht sagen.
Ich wage mich auch aus dem fenster und behaupte einmal das vor 2 Jahren das bild das selbe war wie heute. Nvidia mehr fps und ati schöneres bild..
das sich das umgedreht hat habe ich gemeint.
Übrigens auch meine nächste graka wird eine Nvidia also kommt mir ja nich mit dem ATI Fanboy...
 
was meinst du mit "meine auflösung"?
weil diese ist dann ja der entscheidende faktor für die framerate... da meine karte aber "nur" 128mb Video-RAM hat geht 1280*1024 net, zumindest mit den standardeinstellungen ^^ auf 800*600kommts noch an gute 20FPS ran...
 
C4m3mb3r+ schrieb:
was meinst du mit "meine auflösung"?
weil diese ist dann ja der entscheidende faktor für die framerate... da meine karte aber "nur" 128mb Video-RAM hat geht 1280*1024 net, zumindest mit den standardeinstellungen ^^ auf 800*600kommts noch an gute 20FPS ran...
?
Deine Monitorauflösung natürlich 'gg' oder so wie Du normal auch zoggst.
:kicher: 800x600 und 20fps :fresse:
 
ganz klar übergang ! look at my sys
 
Ich hab mir jetzt für 300€ ne X1900XT mit 512 gekauft und ich dachte auch erst behälste deine 78GT bis DX10, und hab dann festgestellt bis DX10 erstmal richtig geil aussieht und nen ordentlichen Unterschied zu DX9 bringt biste mit der X1900XT super gut fürs komplette nächste Jahr in High Auflösung gesichter...von daher
 
Gahmuret schrieb:
[...]
p.s: das x800 mit neuen spielen besser zurande kommt liegt einfach darin das sie sm2 berrechnet und nicht wie die 6800er sm3...


Hä, was laberst du da? Du sagt, da die X800er Spiele mit SM2 berechnet ist sie etwas schneller als die 6800er, die mit SM3 berechnet? Du weißt aber schon, daß beide GPUs das gleiche berechnen, nur die 6800er das dank SM3 schneller kann als die X800er mit SM2. SM3 heißt nicht daß man mehr oder umständlicher berechnen muss, sondern dadurch geht es schnelller.

Also müsste es heißen: "Obwohl die 6800er SM3 einsetzen kann - und damit einen Geschwindigkeitsvorteil vor der X800er hat - ist die X800er schneller."
 
genau wombat erklärts richtig,
wenn man sich die kanidaten anguckt sind die ati,s im schnitt auch um 100 mhz höher getaktet :) daher sind sie flotter
 
Night<eye> schrieb:
genau wombat erklärts richtig,
wenn man sich die kanidaten anguckt sind die ati,s im schnitt auch um 100 mhz höher getaktet :) daher sind sie flotter
Die 16PP der 6800 im Vergleich zu 12PP der Pro und der wesentlich schnellere Ram der 6800GT/Ultra übersehen wir gekonnt ^^.

C4m3mb3r+ schrieb:
ich spiel mit 640*480(!) musst du wissen :coolblue: *hehe*
Laß mal Ergebnisse hören oder bist Du vor Schreck untern Tisch gefallen :haha:
 
Zuletzt bearbeitet:
C4m3mb3r+ schrieb:
...da meine karte aber nur 128mb Video-RAM hat geht 1280*1024 net, zumindest mit den standardeinstellungen ^^...

muss ich erstmal meine 512MB dranlöten ;)

heut teste ich mal die maximal mögliche auflösung xD... hatte ja ganz vergessen, meien karte zu tunen :drool:

achja, noch was zum thema:
Night<eye> schrieb:
genau wombat erklärts richtig,
wenn man sich die kanidaten anguckt sind die ati,s im schnitt auch um 100 mhz höher getaktet :) daher sind sie flotter


Stimmt ;) deswegen waren die AMD-prozessoren mit halbem takt immer so schnell wie die Intel-pendants, jetz beweißt intel amd, dass das möglich ist, mit weniger takt mehr leistung zu bringen... das soll mal auf grafikkarten überspringen xD
 
Zuletzt bearbeitet:
Na dann schalt Multisampling aus, das frist ja viel Ram. Ansonsten ist das ziemlich Wurscht VRam und Auflösung. Eine 64Mb karte kann trotzdem 1280x1024 darstellen. Das hängt eher am TMDS Transmitter fürs Videosignal.
Das sollte aber auch Deine 6600GT locker packen :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh