ATI R600 2900XT "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wieder die experten am reden...der treiber ist bei AAA manchmal langsamer, da AAA jetzt wieder via SSAA realisiert wird und nicht mehr mit EATM (laut dukee)
 
Zusammengefasst heisst das dass die Karte mit dem neuen Treiber etwa noch schlechter geworden ist???? :hmm:


Kommt drauf an, ob AAA noch mit EATM läuft. Ich tippe auf Nein. Aber Wesker könnte das leicht nachprüfen. Insgesamt eine ganz leichte Verbesserung. Aber so wird es weitergehen, Riesensprünge sollte man nicht erwarten.
 
Kommt drauf an, ob AAA noch mit EATM läuft. Ich tippe auf Nein. Aber Wesker könnte das leicht nachprüfen. Insgesamt eine ganz leichte Verbesserung. Aber so wird es weitergehen, Riesensprünge sollte man nicht erwarten.


Die Verbesserung ist marginal denn den Treiber mit EATM muss man
aussen vor lassen .... die Frage ist eher ob einiges von
den schwerwiegenden Bugs wenigstens verschwunden ist.

Langsam sehe ich es auch so ... das man Leistungsmässig wenig
erwarten kann .... zumal die fehlenden Details auch gerendert werden möchten ;)

Andererseits MUSS da Performance mässig noch was kommen - denn der
R650 wird auch nur nen Shrink mit etwas besseren Takt - vermute ich -
ich glaube nicht das der R600 Hardware-Bugs hat.

Greetz Koyote008
 
Zuletzt bearbeitet:
sollte er keine HW-Bugs haben, MUSS da wirklich noch was kommen, denn eine X1950XTX schlägt selten eine 8800GTS oder auch eine HD2900XT und ATi kann doch keinen Chip entwickeln der nicht in jedem Fall seinen Vorgänger um X Prozent schlägt (X > 50)
 
Die Verbesserung ist marginal denn den Treiber mit EATM muss man
aussen vor lassen .... die Frage ist eher ob einiges von
den schwerwiegenden Bugs wenigstens verschwunden ist.

Langsam sehe ich es auch so ... das man Leistungsmässig wenig
erwarten kann .... zumal die fehlenden Details auch gerendert werden möchten ;)

Andererseits MUSS da Performance mässig noch was kommen - denn der
R650 wird auch nur nen Shrink mit etwas besseren Takt - vermute ich -
ich glaube nicht das der R600 Hardware-Bugs hat.

Greetz Koyote008

Stimm dir 100% zu,hab meine Ati gerade storniert,bin von der Karte voll verunsichert,hab mir als Übergangskarte die GX2 geholt und gut ist.....
 
lol der treiber ist ja mal geil :d

8.37.42
1920x1200 4AA/16AF -> 74 FPS
1920x1200 4AAA/16AF -> 45 FPS

8.38 RC3
1920x1200 4AA/16AF -> 75 FPS
1920x1200 4AAA/16AF -> 35 FPS

Ja geil weil er fast so schnell ist und das ohne eatm sondern mit SSaa`?

Stimm dir 100% zu,hab meine Ati gerade storniert,bin von der Karte voll verunsichert,hab mir als Übergangskarte die GX2 geholt und gut ist.....
Wieso keine 8800 Gts 320MB?Was willst mit ein poppligen Flimmeroptik G71 Chip grade jetzt wo es schon das erste Dx 10 Spiel gibt...
8.37.43
1920x1200 4AA/16AF -> 158 FPS
1920x1200 4AAA/16AF -> 147 FPS

8.38 RC3
1920x1200 4AA/16AF -> 155 FPS
1920x1200 4AAA/16AF -> 151 FPS

8.37.43
1680x1050 4AA/16AF -> 55 FPS
1680x1050 4AAA/16AF -> 37 FPS

8.38 RC3
1680x1050 4AA/16AF -> 59 FPS
1680x1050 4AAA/16AF -> 41 FPS

es gibt also noch Hoffnung.In 1 Monat sehen wir dann vielleicht 10+FPS sprünge.Hoffe das die meisten über die Treibersache auch so positiv denken.
 
Zuletzt bearbeitet:
Du hast dir doch deine Frage beantwortet

1. Stromverbrauch: supi, wenig mehr als ne GTX

Und daraus wird jetzt ein Kauftipp? Schon interessant wie man durch weglassen oder verdrehen von Fakten ein unterlegenes Produkt zum Sieger küren kann.

Das Gerät ist in Sachen Verbrauch nur etwas schlechter als das bisher schlechteste, dafür aber leistungsschwächer. Grandios! Kauftipp!

2. Shaderleistung: ebenfalls supi
3. Bildqualität: top
4. 16-Bit Rendering: zum Glück wird es nicht mehr vollständig unterstützt (Ballast&Kompatibilität muss weg)

Klarer Kauftipp!

Wieso muss man das dir überhaupt erklären, du bist doch der Hardware Kenner ?!?

Ok, dann vergleichen wir jetzt weiter korrekterweise die GTS mit der XT. Dann haben wir zwei Produkte mit ähnlicher Leistung (bei Qualitätseinstellungen) und Bildqualität. Eines hat fehlende Features, einen lauten Lüfter ist gut 50€ oder mehr teurer, ist offenbar auch unter DX10 nicht schneller und als Sahnehäubchen gibts für die die nicht noch ein halbes Jahr warten wollen verwanzte Treiber.

Vieleicht wird die Karte noch zur Konkurrenz, aber einen Wundertreiber gabs noch nie. Version für Version etwas besser, wie immer. Also viel Geduld noch.

Man sieht, es gibt keine Alternative zur XT.


Aber mal ehrlich: Wir reden hier von Grafikkarten. Die steigen nicht mit euch ins Bett, trösten euch nicht und sind nicht für euch da wenns euch schlecht geht. Ihre Mütterfirmen auch nicht. Sie sind höchstens heiss, aber nicht im positiven Sinne. Also woher die emotionale Bindung? Wie wärs mit Rationalität?
 
@Domi SSAA? bist du dir da sicheR?
 
Aber mal ehrlich: Wir reden hier von Grafikkarten. Die steigen nicht mit euch ins Bett, trösten euch nicht und sind nicht für euch da wenns euch schlecht geht. Ihre Mütterfirmen auch nicht. Sie sind höchstens heiss, aber nicht im positiven Sinne. Also woher die emotionale Bindung? Wie wärs mit Rationalität?

Es gibt auch Leute, die sich mit Wänden unterhalten können. :d

Hast aber vollkommen recht! :)
 
Wie findest ihr die Idee, anstatt wenn jeder schreibt ich habe im Spiel XYZ mit 4xAAA und 16AF so und soviel Fps, wäre doch wenn alle mal Spielebenchmarks z.b von www.hocbench.com verwenden würden. Dann ist es besser nachvollziehbar und man bekommt alle wichtigen Infos wie CPU Takt, GPU-Takt, Qualitätseinstellungen usw. angezeigt. Darauf würde ich mehr geben als auf pauschale Aussagen.
 
es gibt also noch Hoffnung.In 1 Monat sehen wir dann vielleicht 10+FPS sprünge.Hoffe das die meisten über die Treibersache auch so positiv denken.


Na du hast eine Hoffnung. Die geringe Steigerung ist eine ganz normale Steigerung, die auch auf dem G80 eintritt. Da muss schon mehr kommen.
 
is der neue treiber jetzt besser??? udn was verbessert er??? leistung qualität usw!
 
jo, wie schauts aus mit 8.38?
ich kann heut leider net testen, bin nicht zuhause.
DOD source wär für mich interessant bezüglich bildquali und nebel?
 
Was willst mit ein poppligen Flimmeroptik G71 Chip grade jetzt wo es schon das erste Dx 10 Spiel gibt...

Ja welches DX10 Spiel meist du denn?
Mir ist keins bekannt, ich bitte um Aufklärung!

Hoffentlich kommt jetzt nicht CoJ oder Lost Planet, denn das sind beides noch vor Beta Stadium Games und vor allem keine reinen DX10 Games sondern irgendwelche Portirungen, ...
 
Ja welches DX10 Spiel meist du denn?
Mir ist keins bekannt, ich bitte um Aufklärung!

Hoffentlich kommt jetzt nicht CoJ oder Lost Planet, denn das sind beides noch vor Beta Stadium Games und vor allem keine reinen DX10 Games sondern irgendwelche Portirungen, ...

ist Halo 2 schon ein DX10 oder ein DX9 Titel?
 
@ Dominator

finde gut dass du zu der Karte hällst und dabei auch nicht versuchst sie besser darstehen zu lassen als sie ist.

würde ich genau so machen.

damals bei der Geforce fx war ich auch so.

es war mir scheiss egal ob die konkurenz besser ist, ich war zufrieden mit der karte und total überzeugt.

seid dem habe ich mir so vorgenommen alle 3 generationen eine neue karte zu kaufen.

erst hatte ich ne geforce 2 dann die FX und jetzt die 8

und gerade die karten die bei ati so stark kritisiert wurden wie zb R520 & r600 gefallen mir um so besser.

finde sowas gut, du bist nicht jemand der nur dass beste kauft sondern dass kauft wovon er überzeugt ist.

am besten sah man es bei dem C2D launch.

die wahren AMD fans blieben dennoch bei ihrem amd und warten auf den K10

sowas mag ich

so aber nun wieder BTT

ATI gab letztes jahr ein iterview dass die X2xxx serie die letzte serie sein wird die viel strom schlucken wird.

in zukunft sei es ihnen auch nicht so wichtig welchen weg nvidia geht, sondern sie werden auf dem weg Performance pro Watt und effizienz hin arbeiten und keine strom schleudern mehr raus bringen.

ab der R700 oder r800 werden wir diesen Gravierenden umschwung wohl mit erleben und es freut mich.
 
ist Halo 2 schon ein DX10 oder ein DX9 Titel?

Halo 2 ist kein DX10 Game.
Es nutzt noch nicht mal DX10 Effekte so wie es wohl Lost Planet und CoJ machen werden

ATI gab letztes jahr ein iterview dass die X2xxx serie die letzte serie sein wird die viel strom schlucken wird.

in zukunft sei es ihnen auch nicht so wichtig welchen weg nvidia geht, sondern sie werden auf dem weg Performance pro Watt und effizienz hin arbeiten und keine strom schleudern mehr raus bringen.

ab der R700 oder r800 werden wir diesen Gravierenden umschwung wohl mit erleben und es freut mich.

???
Wo hast du das denn her, gibts dazu ne Quelle oder was zum mitlesen?
Wenn man dort viel rein interpretieren würde könnte man denken ATI bzw. jetzt AMD will sich wirklich aus dem HighEnd Grakamarkt zurück ziehen.
Ich mein ohne Konkurenz läuft das Geschäft nicht.
Und solche Sachen wie, "was NV macht, interessiert uns nicht" wird nie funktionieren, denn NV bestimmt dann den Preis wenn sie besser sein sollten. Das würde weder ATI noch dem Kunden gut tun.
 
Zuletzt bearbeitet:
Ja welches DX10 Spiel meist du denn?
Mir ist keins bekannt, ich bitte um Aufklärung!

Hoffentlich kommt jetzt nicht CoJ oder Lost Planet, denn das sind beides noch vor Beta Stadium Games und vor allem keine reinen DX10 Games sondern irgendwelche Portirungen, ...

Halo2 für Vista ...

Greetz Koyote008
 
Halo2 für Vista ...

Greetz Koyote008

Kein DX10 Game es läuft nur unter Vista laut Microsoft.Was aber auch heißt das es nicht lange dauert und es auch unter XP läuft.

Zwar setzt Halo 2 einen PC mit Windows Vista voraus - jedoch keine Grafikkarte, die die neuen Features von Direct3D 10 unterstützt, erläutert Entwickler Bungie auf der offiziellen Webseite.


Q: Why will Halo 2 for Windows Vista not support DX10?
A: Halo 2 will certainly support DX10 graphics cards but the game itself is not being re-written to specifcally take advantage of upcoming DX10 features. The more robust your graphics card, the more visual features and fidelity you will be able to enjoy.

http://www.bungie.net/Forums/posts.aspx?postID=8791928
 
Zuletzt bearbeitet:
Kein DX10 Game es läuft nur unter Vista laut Microsoft.Was aber auch heißt das es nicht lange dauert und es auch unter XP läuft.

Iss ja merkwürdig ... ein only Vista Game aktuell ... DX9 läuft als Fallback
dachte ich ... und läuft eben halt nicht auf XP

... muss ich wohl nicht verstehen das es kein DX10 Game dann ist :d

Greetz Koyote008
 
Zuletzt bearbeitet:
Kein DX10 Game es läuft nur unter Vista laut Microsoft.Was aber auch heißt das es nicht lange dauert und es auch unter XP läuft.

Richtig, scheinbar interpretierten hier einige zu viel in die Aussage "Vista only".
Auf jedenfall ist dort nix mit DX10.
Hab ich aber auch schon vor paar Seiten schon geschrieben, sogar mit Quelle ;) aber mir glaubt ja immer keiner... :motz: :coolblue:
 
Jo hab mein Post nochmal Editiert mit quelle Bungie.
 
Iss ja merkwürdig ... ein only Vista Game aktuell ... DX9 läuft als Fallback
dachte ich ... und läuft eben halt nicht auf XP

... muss ich wohl nicht verstehen das es kein DX10 Game dann ist :d

Greetz Koyote008

ja warum wohl ..... um den verkauf von ihrem vista pista anzukurbeln .... verarsche ist das sonst nix
 
@ fdsonne, war ein offizielles interview, wurde in vielen zeitschriften gedruckt, habe es in der pcgh damals gelesen, ist aber schon laaange her... müsste mal meine alten pcgh stapel durch gehen um es raus zu fischen, zz keine lust drauf aber so stand es geschrieben.

ich denke sie werden den weg so machen weil sie sich sicher sind dass nvidia auch den weg gehen wird. sah man bei NV ja schon ansatzweise mit den 7900ern und 7600ern

ich denke wenn Nvidia weiterhin stromfress flaggschiffe raus bringen wird muss ati da aber wohl mit ziehen, bin gespannt was da jetzt wirklich raus kommt in den nächsten 2 einhalb jahren.
 
@ fdsonne, war ein offizielles interview, wurde in vielen zeitschriften gedruckt, habe es in der pcgh damals gelesen, ist aber schon laaange her... müsste mal meine alten pcgh stapel durch gehen um es raus zu fischen, zz keine lust drauf aber so stand es geschrieben.

ich denke sie werden den weg so machen weil sie sich sicher sind dass nvidia auch den weg gehen wird. sah man bei NV ja schon ansatzweise mit den 7900ern und 7600ern

ich denke wenn Nvidia weiterhin stromfress flaggschiffe raus bringen wird muss ati da aber wohl mit ziehen, bin gespannt was da jetzt wirklich raus kommt in den nächsten 2 einhalb jahren.

Mhhh hab ich gar nicht mitbekommen :fresse:
egal falls du mal ganz viel lange weile hast kannst das ja mal raussuchen :bigok:

Aber das mit den 7900er und 7600er versteh ich nicht, was sieht man denn daran?
 
der strom verbrauch kahm positiv an und ist ein wichtiger faktor genau wie im cpu bereich. es ist den leuten nicht egal wie viel w ihre cpu oder gpu,s verheizen. dass hat ATI damals erkannt und wollte gravierende änderungen umsetzen. sie sagten bei der nächsten Generation (x2xxx) würden diese änderungen noch nicht eintreffen aber vieleicht ein oder 2 generationen nach dieser würden sie es.
 
der strom verbrauch kahm positiv an und ist ein wichtiger faktor genau wie im cpu bereich. es ist den leuten nicht egal wie viel w ihre cpu oder gpu,s verheizen. dass hat ATI damals erkannt und wollte gravierende änderungen umsetzen. sie sagten bei der nächsten Generation (x2xxx) würden diese änderungen noch nicht eintreffen aber vieleicht ein oder 2 generationen nach dieser würden sie es.

Ach so meinst du das, gut, aber man muss NV schon positiv anrechnen das deren Grakas nach der FX Reihe immer durch die Bank weg stromsparender waren, sprich die Leistung pro Watt immer besser was als bei ATI.

Wie ich schon mal sagte, die Leistung pro Watt ist in den letzten Generationen immer gestiegen, also die Karten werden mit jeder neuen Generation effizienter.
Das heist der Weg geht schon ansatzweise in die richtige Richtung.

Ich sehe nur ein Problem darin diese bis jetzt kleinen Sprünge so zu erhöhen, das am Ende merklich was raus kommt.
Sprich es mekern wohl mehr rum, wenn die Leistung nicht stimmt als wenn die Karte etwas mehr verbraucht.

Und so einfach bei halbem Verbrauch die doppelte Leistung raus bekommen wird nicht möglich sein. Ich sehe der Sache durchaus kritisch entgegen.
Lass mich aber gerne überraschen was da raus kommen soll
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh