HD2900XT fast so schnell wie 8800GTX?

Ich glaub eagleone19 is einfach einer der gerne ein g80 hätte aber sich keine leisten kann/will. Und deshalb macht er unsere karte schlecht -__-
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man die X2900 XT wird mall wieder gepwnt....

Sehe ich das richtig,eine X1950 XT müsste dann in Dx9 modus ungefähr so schnell wie eine X2900 XT sein...
 
Zuletzt bearbeitet:
Passt mal wieder gar nich zu den CB-Benchs. Da verliert die 2900 20fps in DX10.

\edit: Die X1950XT haben se vergessen! Die is nämlich schneller als die 2900!
 
So und jetzt tief durchatmen :)

Es gibt hier wirklich harte Fans von beiden Seiten wie mir scheint und wenn es nur eine Seite einsehen würde, dass man die andren nicht anpöbeln muss wäre das sehr hilfreich für das eigentliche Thema.

Viele Leute haben auch neutral eine realistische Meinung abgegeben, aber entweder wurden sie angeflamt oder ignoriert. Eigentlich gehört der Thread als Schandfleck des Forum gelöscht, geclosed was auch immer.
Mich interessiert das schon, welche Karte nun wo gut ist und wenn die Ati meine Ultra überholen würde wäre mir das auch egal bzw. würde ich dann halt vielleicht einen neuen Versuch unternehmen und evtl. tauschen.

Aber Eagleone, dich muss ich noch ansprechen. Beleidigungen, noch dazu über die Herkunft der andren sind unterste Schublade und müssen wirklich nicht sein.
Hab ja auch immer (im Rahmen) zu dir gehalten, aber (nicht nur) dein Verhalten hier finde ich widerwärtig.


Und noch einen letzten Satz zum Thema:
Wie man oben schon sehen konnte mag ich jetzt auch nochmal bestätigen, dass das keine Bildfehler sind, sondern das Spiel auch auf G80 so aussieht. Punkt.
Kauf es dir und teste selber, wenn du niemandem glaubst.

mfg
 
Auf den letzten 3 Seiten habe ich bestimmt 50% der Posts gelöscht.
Muss das sein?
(Bilder die hier gepostet werden, sollten 900px*600px nicht überschreiten.)

Also an die beiden Haupt-Streithähne hier:
Benehmt euch, diskutiert sachlich, friedlich aber so geht es nicht weiter.
Muss doch nicht zu ernsteren Konsequenzen hier kommen, oder?

... :btt:
 
Mich stört immernoch eine Frage, rentiert es sich im Moment sich eine 2900xt oder 8800GTX zu kaufen? da ja bald (so wird gemunkelt) die nächste Generation mit DX10.1 auf dem Markt kommt. Also kann mir einer aufzählen, stichpunktartig, was der Vorteil und der Nachteil einer 2900XT // 8800GTX ist. würde mich mal sehr interessieren. Klar kann ich mir das jetzt selbst zusammensuchen, aber dass ich nochmal 9 Seiten durchsuchen muss, wo 50% unsinn gepostet wurde, da man sich gegenseitig angepöbelt hat, dazu hab ich keine Lust mehr, sorry.
Also wenns jemanden geben würde, der das so im Kopf hat, der beide getestet hat, wär ich demjenigen sehr verbunden.
 
Schau, vermutlich endet es bei solch einer Frage ja doch wieder in der selben Diskussion, das ist das Problem.
Ich habe eine 8800GTS gehabt, dann eine 8800Ultra gekauft und zwischendurch mal eine 2900XT getestet.
Klar könnte ich dir jetzt meine Meinung aufzählen, aber das werde ich nicht tun, da ich mir sonst wieder falsche Unterstellungen gefallen lassen muss.

Mein Tipp: Schau dich in den entsprechenden Sammelthreads um und bilde dir deine eigene Meinung!

Und vergiss erstmal recht flott dx10.1 bei der Entscheidung, denn bis das wirklich mal von Bedeutung werden könnte geht noch viel Wasser den Bach runter ;)
 
so isses und ob dieses jahr noch ein richtiger 8800gtx+ refresh kommt, steht auch noch in den sternen
 
Mich stört immernoch eine Frage, rentiert es sich im Moment sich eine 2900xt oder 8800GTX zu kaufen? da ja bald (so wird gemunkelt) die nächste Generation mit DX10.1 auf dem Markt kommt. Also kann mir einer aufzählen, stichpunktartig, was der Vorteil und der Nachteil einer 2900XT // 8800GTX ist. würde mich mal sehr interessieren. Klar kann ich mir das jetzt selbst zusammensuchen, aber dass ich nochmal 9 Seiten durchsuchen muss, wo 50% unsinn gepostet wurde, da man sich gegenseitig angepöbelt hat, dazu hab ich keine Lust mehr, sorry.
Also wenns jemanden geben würde, der das so im Kopf hat, der beide getestet hat, wär ich demjenigen sehr verbunden.

Also zum Thema DX10.1 würd ich folgendes sagen:
Du kannst mit DX10.1 auf dem Rechner und ner DX10 Karte im Rechner trotzdem alle DX10 Effekte genießen (nicht die zusätzlich durch DX10.1 kommen, wenns denn überhaupt welche sind)

Wenn man sich das vor augen führt, bemerkt man ganz schnell das es wie in der Vergangenheit ist, es kommt ne neue DX Version und irgendwann dazu auch Hardware, aber wirklich brauchen wird man das erst Jahre später.

Als Beispiel, erste SM3 Karten von NV waren die 6x00er. Release mitte 2004. Erstes SM3 only Game war meines Wissens nach Splinter Cell Double Agend, release Okt. 06.
Da sind über zwei Jahre dazwischen...

Was ich damit sagen will, bis erste DX10.1 only Games kommen, wird noch ewig viel Wasser die Elbe runter fließen. Bis dahin hat man idR wieder ne neue Karte...
Und dabei ist es auch noch so das der Unterschied oder besser, der Vorteil von DX10.1 gegenüber DX10 ja nicht sooo brachial viel ist, wie beispielsweise bei DX9.0b zu DX9.0c!

Also bleibt schlussendlich noch zu sagen, man kauft ne Graka oder Hardware an sich idR nicht für die Zukunft, d.h. man sollte genau dann kaufen wenn man die Leistung inaktuellen erhältlichen Gametiteln braucht bzw. in sehr sehr kurzfirstig erscheinenden Titeln brauchen wird (sofern man das jetzt schon einschätzen kann).

Wenn du also jetzt die Leistung aktueller HighEnd Karten brauchst, dann schlag zu, wenn noch nicht, dann warte.

Im übrigen sehe ich auch noch die jeweils erste Generation einer neuen Technologie noch als technologie Vorreiter an, und erwarte dementsprechend nicht soo sonderlich viel davon. Sprich eine G80 oder R600 wird in meinen Augen schon bald nicht mehr reichen wenns um echte richtige DX10 Games geht... (das ist aber nur meine Meinung)
 
ich sags mal ganz hart, das was die 2900xt günstigfer ist als die gtx frisst sie an stromkosten im betriebe locker wieder auf

warum sich hier die leute gegenseitig ans hemd pinkeln versteh ich manchmal auch nicht. es ist immer so das mal einer, mal der andere was besseres hat, das nennt man konkurenzkampf, und da hat ati nun mal im mom ein paar probs, die sie hoffentlich bald wiederin den griff bekommen
, ich hab auch mit ati angefangen, dann kam 3dfx ( was eh besser als ati und nv war :P) dann kamenw ieder div ati und nv karten, immer das was ich halt in die finger bekam :d

ati hat viel geleistet mit dem treiber, was man hätte vermeiden können! aber schaun wir wie sich das noch entwickelt :)
 
ich sags mal ganz hart, das was die 2900xt günstigfer ist als die gtx frisst sie an stromkosten im betriebe locker wieder auf

Auf wieviele Jahrzehnte? ;)
So krass kanns nicht sein und ob so ein System jetzt 170W oder 180W idle verbraucht sollte das Kraut nicht fett machen.
Die wenigsten werden ja den halben tag spielen... zumal man die Ati ja anscheinend (hatte das gar nicht versucht) sehr gut im 2D runtertakten und untervolten kann, was bei der 8800 nicht geht (Volt).

@Zocker: Finde ich komisch, mir wäre eigentlich kein großer Unterschied aufgefallen :hmm:
 
ich sags mal ganz hart, das was die 2900xt günstigfer ist als die gtx frisst sie an stromkosten im betriebe locker wieder auf

Sorry, aber genau durch sowas wie dein Kommentar hier greifen sich die Leute an, bitte informier dich noch mal richtig über den Stromverbrauch und vorallem den Verbrauch mit aktuellen Treibern, denn da hat sich nämlich gewaltig was getan...

Und wie flying schon sagt, man kann die R600er im 2D mächtig untertakten/untervolten, meine rennt beispielsweise mit 0,688V bei 130/130 (std. ist 1V 506/513

Zusammenfassend kann ich sagen, Laststrom über der GTS, so in etwa wie bei der GTX. Je nach Anwendung mal mehr, mal weniger.
idle Strom aber niedriger als GTX und GTS...
Dazu kommt das in Vista mit Aero die G80 Karten ja immernoch net so richtig in den 2D Takt fallen (oder geht das mittlerweile richtig?)

Ich will daran nichts schön reden, aber wenn man schon was behauptet, dann bitte richtig.

Ich für meinen Teil finde den Verbrauch aktueller 3D Karten sowieso zu hoch, wobei der Lastverbrauch mir hupe ist, da man schließlich nicht 24/7 am zocken ist ;)
 
Zuletzt bearbeitet:
Zocker haste mal den patch installiert? Also den von ATi?
 
was heißt böse an Leistung? Zeig doch mal nen Screen mit fps... und sag den Vergleich zu vorher. :)
 
das ist schon heftig. Wundert mich aber auch wie gesagt...
Welche Auflösung spielst du nochmal?
 
ok ich teste jetzt mal Vista, mal sehen obs was bringt.

1680x1050
Hinzugefügter Post:
lol

also unter DX10 bin ich genauso schnell wie unter DX9 was soll das den ? (XP vs Vista)
Aber unter DX9 sieht das Blut wirklich anders aus wie unter DX9, und noch komisch ist, egela welche Auflösung ich einstelle die FPS bleiben gleich ob nun 1280x1024 oder1920x1080 macht kein unterschied
:confused:

Achja, die vierecke sind wirklich weg mit DX10:eek:

1680x1050 alles MAX, im Treiber alle auf an was geht, AAA, AA 4x,16xAF AI OFF

 
Zuletzt bearbeitet:
1680x1050 alles MAX, im Treiber alle auf an was geht, AAA, AA 4x,16xAF AI OFF

Wiso hast überhaupt die ganzen AA-Einstellungen an, bringt bei DX10 doch nichts und AI auf off zu stellen kostet unter umständen bis zu 50% Performance je nach Game.

Aber komisch ist es schon das DX9 und DX10 fast gleich schnell laufen :confused: in der Demo waren es ca.25% mehr bei DX9.

Bloß wenn es keinen unterschied zwischen 1280 und 1920 gibt dann bremmst irgendwas evt. das Securom-Zeug ? Wie ist die CPU Auslastung ?
 
dass dx9 und dx10 etwa gleich schnell sein sollen glaub ich aber schonmal gehört zu haben?!
Viel mehr wundert mich jetzt, dass das Blut bei dir nicht mehr so aussehen soll, schhließlich spiel ich auch unter dx10 und hab es dort auch. :hmm:
 
Ja ich weiss es auch nicht man kann es auf dem Screen ja sehen oben das ist DX10:confused:

ich hab mal paar vergleichsshots gemacht, oder kann es sein das AA vieleicht doch geht ?
Weil ich sehe im Blut zB keine Vierecje mehr, und die rundungen vom Blut sind nicht mehr eckig sondern schön rund, und das sieht auch richti echt aus irgendwie oder ?


DX9 Blut: XP 32 Bit


DX10 Blut: Vista 64 Bit



Hinzugefügter Post:
Aber komisch ist es schon das DX9 und DX10 fast gleich schnell laufen :confused: in der Demo waren es ca.25% mehr bei DX9.


ja eben, ich hab mal die Default INIs unter die Lupe genommen, da wird zB nur 4xAF angegeben und das es mit Vsync startetUND DAS BESTE:
Wer genau hin guckt macht seine Deutsche version gleich zu Uncut:p
 
Zuletzt bearbeitet:
Wieso ist die x2900xt eigentlich so schlecht die 1GB Version ist doch von den Technischen zeugs eigentlich besser und schneller als eine GTX!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh