ATI R600 2900XT "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen (Part 2)

Status
Für weitere Antworten geschlossen.
Hat hier eig. jmd CF am laufen? Bei der X1800/1900 soll das ja schon ein Krampf gewesen sein (zb schlechtere leistung als Single-Karten, fehlende 3d-Umschaltung etc.). Soll CF mit 2900XT nun besser sein als früher?

würde meine Adapter fürs NT mal eintrudeln könnte ich dir das sagen wie CF sich schlägt
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
natürlich, darum hast du auch gevotet das dir schon zwei 2900XT karten abgeraucht sind....

umfrageergebnisseyl8.jpg


nachdem du 1. selber keine 2900XT zum selbertesten besessen hast und 2. ja in keinster weise Anti-ATI bist

:shot:

guck einfach noch mal in den fred.......mehr als das schreiben was ich schon dazu geschrieben hab geht auch nicht.

und btw: von dir erwarte ich überhaupt nichts, nach dem du den 7950gx2 thread vollgespamt hast. ist schon komisch, dass genau die, welche in den nvidia threads immer jede menge quatsch posten, jetzt hier die moralapostel spielen und auf kreuzzug gehen.

also an den rest. ati oder nvidia ist mir völlig wurst. wenn ich so anti-ati wäre hätte ich in den letzten jahren wohl kaum ati karten bessen bzw. wäre es mir völlig wurst.
 
Zuletzt bearbeitet:
So nun haben sich hoffentlich alle wieder beruhigt, ist ja nicht zum aushalten hier, ...

Ein schnellerer Prozessor bringt der HD2900XT sehr viel:

Im 3DMark2006 unter Vista x86:

Sapphire HD2900XT@Stock

Intel Core2Duo@Stock (2.13 GHz): 8800 Punkte (1900 CPU)
Intel Core2Duo@ 2.8 GHz (Speicher gleich): 10200 Punkte (2600 CPU)

Scheinbar limitiert die CPU die Karte bis zu einem gewissen Punkt.

Das ist nur 3DMark06, kannst vergessen, ... Ich hab 4075CPU Punkte und bin bei 113xx Punkten, mit 844/1046 bin ich bei 120xx Punkten.
Meine CPUs laufen auf 2,66GHz sprich langsamer als der jenige von dir da, nix mit CPU Limitiert, das liegt einfach daran das der CPU Speed mit in den Test einfließt am Ende, ...

Und was macht DICH so SICHER das es unter DX10 soviel besser
aussieht ?

sicher ist man sich hier nicht, aber es könnte so kommen, ...

Komplexere Shader ... und unter DX10 siehts dann automatisch besser
aus ... das besagt garnichts ... zumal DX10 ein vereinfachter Code ist
zu DX9 ....

Das stimmt soo auch nicht ganz. Du kannst mit DX10 die gleiche Effektvielfalt mit weniger Rechenaufwand darstellen als wie in DX9. Aber das war sozusagen auch nicht viel anderst mit DX8 zu DX9, ... ;) Der DX9 Code ist aber nicht 100% mit dem des DX10 Codes kompatibel.
Des weiteren bringt DX10 auch noch Neuerungen mit, die Gamehersteller werden sich nicht auf der eventuell besseren Performance ausruhen, sondern werden diese direkt in weitere Effekte umsetzen, ...
Als Beispiel unter anderen kann man den Geometieshader nennen, dieser ist komplex und kann durchaus schneller dank R600 Architektur berechnet werden.

Durch komplexere Shader sieht auch das Bild nicht anderst aus, sondern das ist einfach der Aufbau des Shaders, welcher komplexer ist, vereinfacht gesagt.

Fakt ist das die Karte unter DX9 uneffizient ist ... und unter dem
"gepatchten" DX10 - Titel - der trotzdem nunmal DX10 Code ist
noch beschissener aussieht - aja - und deshalb muss man Deiner
Meinung nach annehmen - bei allen unveröffentlichten Titeln rockt
die X2900XT .......

Greetz Koyote008

Die Frage ist, wie viel DX10 Code wirklich in den gepatchten Titeln drin steckt. Wer versichert uns das bei CoH das was mehr sichtbar ist ggf. nur mit DX9 Code umgesetzt wurde? Und nur die Geoshader auf DX10 aufbauen?
Richtig, das wird so keiner bestätigen können, des weiteren bleibt das Game ein DX9 Game. Ohne genau zu wissen wie viel DX10 Code wirklich drin steckt bleibt zumindest CoH als DX10 Vergleichsbench ungeeignet.
Gleiches bei Lost Planet und der Beta Demo von CoJ, denn diese bauen auch noch auf DX9 auf, wobei letztere beiden wirklich schon nen deutlich sichtbaren Unterschied zur DX9 Version zeigen, sprich es könnte dort unter Umständen ggf. sogar mehr DX10 als DX9 Code drin stecken.

Auch wenn DX10 die gleichen Effekte mit weniger Rechenaufwand darstellen lässt, wird bei diesen Gepatchten Titeln nie das komplette Game in DX10 Code sein, sondern nur die paar wenigen Zusatzeffekte.
Sprich man sollte mit anmerken, das in nem echten DX10 Titel noch ganz anderst aussehen kann, ...


Und noch was OT
Koyote, wie siehts denn in Rostock aus, steht dein Haus noch? Gibt ja mächtig Krawall dort!
 
ist es nicht völlig sinnlos darüber zu diskutieren welches Spiel nun dx10 oder dx9 rendert?

ich denke wir werden in den nächsten fünf jahren noch genügend dx9 dx10 mischungen sehen. Klar ist das keine Firma der Welt zwei seperate Grafikengines entwickeln wird. Insofern ist diese geprabel, auf die "echten" dx10 titel zu warten doch völlig daneben, und die performance des r600 wird in meinen augen auch nicht mit den viel zitierten echten dx10 games besser skalieren.
 
hallo entschuldigung aber gibt es hier nur noch intelligenzallergiker die nichts besseres im sinne haben als gegenseitiges bepissen:wall:

an den kleinen rest hier die noch nicht auf die IQ bremse getreten sind :stupid: hätt ich die frage ob es mit dem letzten treiber einen vergleichstest gibt gegenüber der gts

danke
:)
 
Ist hier eventuell ein CS:S Zocker der schon eine Möglichkeit gefunden hat den Nebel-Bug zu umgehen bzw. ist der Bug bei allen Treibern vorhanden?....würds ja gerne testen aber man bekommt die verschieden Versionen so schlecht! ;)

MfG T-REX

Das ist ein Problem der Source-Engine und muss per Treiber gefixt werden. Scheint nicht einfach zu sein, NVIDIA brauchte dafür 6 Monate :fresse:
Hoffe dass ATi dieses Problem schneller lösen wird.
Bisher ist es noch nicht gefixt worden, aber wie gesagt, das ist die Schuld von Valve und nicht von ATi oder NVIDIA.

MfG :cool:
 
ist es nicht völlig sinnlos darüber zu diskutieren welches Spiel nun dx10 oder dx9 rendert?

ich denke wir werden in den nächsten fünf jahren noch genügend dx9 dx10 mischungen sehen. Klar ist das keine Firma der Welt zwei seperate Grafikengines entwickeln wird. Insofern ist diese geprabel, auf die "echten" dx10 titel zu warten doch völlig daneben, und die performance des r600 wird in meinen augen auch nicht mit den viel zitierten echten dx10 games besser skalieren.

Es ist gut verständlich das ihr G80 Besitzer das nicht akzeptieren wollt/könnt. Ob das in deinen Augen anderst sein wird ist auch egal und hat nix zu sagen.
Mit den Grafikengines hast du Recht, genau aus dem Punkt sollte man bei so einem Vergleich wenigstens mit anmerken, das es sich mit Echtem DX10 Titeln ändern kann.
Es wird mit Sicherheit recht schnell mehr oder weniger echte DX10 Titel geben. Sprich Crysis zum Beispiel, was da raus kommt weis heut keiner, ...
Wie ich schon recht oft gesagt hab wird die R600 wohl nur ein Technologie-Vorreiter sein. Sprich andere spätere Generationen werden scheinbar darauf aufbauen. Entweder es war ein kompletter Schuss in den Ofen, oder ATI weis mehr als wir. Irgendwer muss ja auf diese unflexible Technologie gekommen sein. Letzteres wird sich erst mit Nachfolgegenerationen zeigen.
Falls wirklich Gamehersteller in Zukunft mehr auf diese komplexen Shader bauen und somit die Architektur ihre Stärken auspielten kann, dann war wohl doch der R600 ein Erfolg, ... Ansonsten eher nicht. Das auch mal ein Grakahersteller falsch liegen kann, hat man ja bei NV und der FX Reihe gesehen.

Aber sei es drum, es bringt wohl nix hierüber zu Diskutieren, hat sowieso keinen Sinn, denn für die Mehrheit ist es ja jetzt schon ein Produkt was keiner brauch, denn die G80 war eher da und kann ja alles besser ;)

Ich bin recht zu frieden, mit der zweiten Karte, die Treiber können eigentlich nur besser werden. Und die Hoffnung wegen den Zukünftigen Games usw. stirbt wohl auch erst wenn nach ein/zwei Jahren dahingehend nix passiert ist, ...

hallo entschuldigung aber gibt es hier nur noch intelligenzallergiker die nichts besseres im sinne haben als gegenseitiges bepissen:wall:

an den kleinen rest hier die noch nicht auf die IQ bremse getreten sind :stupid: hätt ich die frage ob es mit dem letzten treiber einen vergleichstest gibt gegenüber der gts

danke
:)

Mhhh ich glaub da gibts keine Tests, aber du kannst mal in duKees Treibervergleichsthread sehen und dir danach nen Review suchen, an hand des Treibervergleichsthreads kannst du dann abwegen wie in etwa die Performance des neuen Treibers aussieht, ... viel schneller ist er net gewurden. Bugs sind auch noch mehr als genug vorhanden, ...

Das ist ein Problem der Source-Engine und muss per Treiber gefixt werden. Scheint nicht einfach zu sein, NVIDIA brauchte dafür 6 Monate :fresse:
Hoffe dass ATi dieses Problem schneller lösen wird.
Bisher ist es noch nicht gefixt worden, aber wie gesagt, das ist die Schuld von Valve und nicht von ATi oder NVIDIA.

MfG :cool:

Erschreckend finde ich das ATI/AMD sich mit Valvetiteln Bundelt aber dann noch net mal ordentliches Bild bringen.
Ich glaube mal nicht das es nur mit dem Treiber gefixed werden kann. Ich hab eher so das Gefühl Valve hat da irgendwas verrissen und die könnten wenn sie wollten auch Source Engine mäßig was bereinigen.
Das würde aber das schlechte Licht auf sie werfen und nicht auf die Grakahersteller. ;)
 
Zuletzt bearbeitet:
Erschreckend finde ich das ATI/AMD sich mit Valvetiteln Bundelt aber dann noch net mal ordentliches Bild bringen.
Ich glaube mal nicht das es nur mit dem Treiber gefixed werden kann. Ich hab eher so das Gefühl Valve hat da irgendwas verrissen und die könnten wenn sie wollten auch Source Engine mäßig was bereinigen.
Das würde aber das schlechte Licht auf sie werfen und nicht auf die Grakahersteller. ;)

AFAIR gab es im Dezember/Januar ein Engine-Update welches auf den G80 Karten das Nebelproblem beheben sollte, leider funktionierte dies nicht so richtig und NVIDIA brauchte noch Monate um einen ordentlichen Treiber zu bringen, der das Problem endgültig löste.
Vielleicht fragt ATi ja mal bei NVIDIA an wie das Problem zu lösen ist. ;)

MfG :cool:
 
AFAIR gab es im Dezember/Januar ein Engine-Update welches auf den G80 Karten das Nebelproblem beheben sollte, leider funktionierte dies nicht so richtig und NVIDIA brauchte noch Monate um einen ordentlichen Treiber zu bringen, der das Problem endgültig löste.
Vielleicht fragt ATi ja mal bei NVIDIA an wie das Problem zu lösen ist. ;)

MfG :cool:

mhh kann auch sein, glaube ich aber eher nicht das ATI bei NV Nachfragt.
ATI wird schon gut in Gespräch mit den Jungs von Valve stehen, sprich ich hoffe mal das wird bald behoben, ...
 
ja ich habe auch noch das problem mit den nebel bugs in CS:S...
 
siehs endlich ein es gibt kein echtes dx10 game solange es zu winxp
kompatibel sein soll.
und darüberhinaus weiß ich sowieso nicht, woher du das wissen beziehst um sagen zu können das ist ein dx9 oder dx10 game. ich maße mir das nämlich nicht an im Gegensatz zu dir. Aber offenbar bis du ein Softwareentwickler...

Und soweit ich weiß hat dx10 auch nix mit den mehrdimensionalen Shadern zu tun, sonder das liegt ganz allein an der Implementierung der jeweiligen Engine!

das heißt im Endeeffekt das der r600 genau sowenig unter dx10 punkten wird wie er das momentan tut. Einzig allein die hoffnung das spätere Programme auf höherdimensionale Berechnung zurückgreifen könnte helfen, aber bis dahin ist der r600 bereits überholt. Und das ist wie schon gesagt primär nicht vom renderpfad abhängig.
 
Zuletzt bearbeitet:
hi zusammen,

gibt es schon netzteile mit einem 6pin und einem 8 pin für die hd2900xt?
kann die karte seit dem neuesten treiber nicht mehr takten.
 
Zuletzt bearbeitet:
siehs endlich ein es gibt kein echtes dx10 game solange es zu winxp
kompatibel sein soll.
Wer hat jemals gesagt das die Games dann mit WinXP kompatibel sein müssen? Früher oder später werden sowieso alle Vista haben müssen.

und darüberhinaus weiß ich sowieso nicht, woher du das wissen beziehst um sagen zu können das ist ein dx9 oder dx10 game. ich maße mir das nämlich nicht an im Gegensatz zu dir. Aber offenbar bis du ein Softwareentwickler...

Du wirsts nicht glauben, aber ich bin tatsächlich Programmierer ;)
Hättest du meine Beiträge nicht nur Sinnlos überflogen sondern auch gelesen, dann hättest du festgestellt das ich gesagt habe, das man nicht von außen einschätzen kann, was nun wirklich DX10 und DX9 Code wäre. Also was willst du? Und zwar bezogen auf den CoH Bench unter DX10, wo einige ja der Meinung sind das scheinbar durch das 12MB Update das komplette Game auf DX10 Code aufbaut. Daher auch meine Anmerkung das es nicht sehr repräsentativ ist das als DX10 zu bezeichnen.

Und soweit ich weiß hat dx10 auch nix mit den mehrdimensionalen Shadern zu tun, sonder das liegt ganz allein an der Implementierung der jeweiligen Engine!

Das hat auch nie jemand behauptet, zumindest nicht net. Ich sagte das zum Beispiel der Geoshader, welcher in DX10 implementiert ist einer der Komplexen Dinge ist. Sprich das die Architektur in dem Fall ihre Stärken ausspielen könnte, vorrausgesetzt er kommt zum Einsatz, was ja derzeit bei DX9 Titeln eher nicht der Fall ist.

das heißt im Endeeffekt das der r600 genau sowenig unter dx10 punkten wird wie er das momentan tut. Einzig allein die hoffnung das spätere Programme auf höherdimensionale Berechnung zurückgreifen könnte helfen, aber bis dahin ist der r600 bereits überholt. Und das ist wie schon gesagt primär nicht vom renderpfad abhängig.

Wie gesagt, es kommt drauf an was die Gamehersteller am Ende realisieren wollen, Beispiel: ein Massiver Einsatz des Geoshaders kann von der R600 Architektur profitieren. Es gibt wohl noch andere Dinge die in DX10 implementiert sind und Architekturbedingt auf dem R600 Vorteile haben könnten. Es liegt sozusagen wie du auch selber feststellst an den Gameherstellern wie stark diese Features in ihren Titeln genutzt werden, und hat vorrangig nix mit DX10 an sich zu tun.

Aber trotzdem verstehe ich net was du mich hier so angiften musst? Ich vertrete hier meine Meinung und du versuchst mir die Worte im Mund umzudrehen, muss sowas sein? :motz: :stupid:

hi zusammen,

gibt es schon netzteile mit einem 6pin und einem 8 pin für die hd2900xt?
kann die karte seit dem neuesten treiber nicht mehr takten.

Jo gibt es, stehn doch sogar aufe ersten Seite welche mit drauf wenn mich nicht alles täuscht! Alternativ kannst auch einfach die beiden inneren Pins des 8 Pol Steckers mit Masse Brücken, das hat den gleichen Effekt ;)
 
Zuletzt bearbeitet:
Bei mir werden die taktraten im AMD Gpu Tool nicht mehr übernommen
der ssagt immer der takt ist nicht modifiziert,weiß jemand eine lösung

danke detphil
 
Keine Ahnung, bei mir klappts ohne Probs, habe bis jetzt auch fast alle Treiber bis auf den Performance Treiber mit schlechter BQ durch.
Alternativ mal den Treiber nochmal neu drauf schnallen, ...
 
...wo einige ja der Meinung sind das scheinbar durch das 12MB Update das komplette Game auf DX10 Code aufbaut. Daher auch meine Anmerkung das es nicht sehr repräsentativ ist das als DX10 zu bezeichnen.
naja, das meiste an diesen riesigen patches machen ja in der regel maps oder neue texturen und sounds aus. die binaries sind in der regel nicht so groß. ich sehe jetzt auch keinen grund warum man für eine dx10 implementation neue texturen oder sounds integrieren müsste. ich denke ein 12mb update ist da angemessen. dx 10 spiele executables sind ja nicht 10 mal größer als dx9 executables. :P
andererseits ist es halt unklar wieviel dx10 spezifischen code das game nun enthält. dieser lässt zwar die frameraten einbrechen, was aber nix darüber aussagt wie gut oder schlecht da nun programmiert wurde.
ich glaube auch nicht daran das die dx9 games (bzw dx10 games mit dx9 support) bis wohl mitte 2008 ausgestorben sind. würden sich die spielehersteller klar damit selbst ins bein schiessen ;)
allerdings ist code nunmal code, d.h auf allen karten wird exakt derselbe ausgeführt, wie der umgesetzt wird und was die grafikkarte daraus macht ist ja dann wieder ne andere sache. mancher läuft auf nvidia karten und mancher auf ati karten besser (das sieht man an den spielen wie doom, farcry, half life etc die meist jewils besser auf einer ati bzw nvidia laufen).

beim nächsten gepatchten dx 10 spiel könnte es dann genau umgekehrt aussehen. auf jedenfall wird ein gewisses spektrum an dx10 effekten genutzt , also würde ich jetzt coh nicht gerade auf ein falsches dx10 spiel degradieren
 
das heißt im Endeeffekt das der r600 genau sowenig unter dx10 punkten wird wie er das momentan tut. Einzig allein die hoffnung das spätere Programme auf höherdimensionale Berechnung zurückgreifen könnte helfen, aber bis dahin ist der r600 bereits überholt. Und das ist wie schon gesagt primär nicht vom renderpfad abhängig.

wenn der R600 derzeit nicht punkten kann, kann es die 8800 GTS erst recht net :d
 
Ich möcht echt mal wissen warum sich jetzt alle wegen DX10 hier umstreiten müssen? Selbst wenn die XT besser in DX10 wäre (was keiner weiß und immer nur Vermutungen sind, genau wie die Vermutungen am Anfang wo die XT ja schneller sein sollte wie die GTX^^)...was nützt ihr das, wenn die Karte so derbe unter AA ein bricht? Wartet doch erst mal ab, ob dieser Bug behoben werden kann.
 
die Karte bricht ja nicht stark unter AA ein, eher bei bestimmten Spielen durch AF, da ihr hier die Füllrate fehlt, wenn diese Spiele füllratenlimitiert sind (Stalker, Cod 2). Hier sorgt OC aber ganz schnell für Abhilfe.
 
Gut du hast schon recht, theoretisch sollte der reine Programmcode an sich nicht sonderlich groß sein, aber schau dir doch mal die vorhergehenden CoH Patches an, die welche wohl Maps, Sound und was auch immer mitgebracht haben, sind merklich größer, die die nur Bugs gefixet haben, sind recht klein.
Schlussendlich bleibt immernoch die Frage wie viel von den Zusatzeffekten wirklich auf DX10 Code aufbaut. Und du musst bedenken das bei dem vorhergehenden Patches nur Ausbesserungen vorgenommen wurden, hier in dem Fall muss es Anpassungen für DX10 geben, dann gibts zusätzlichen Code für Effekte usw.

DX10 only Games werden mit Sicherheit auch nicht so schnell kommen. Nur scheint es ja so zu sein, das man zumindest die Hürde Vista damit recht gut überwinden kann. Wie das nun die Gamehersteller tun werden, bleibt abzuwarten.

Das mit dem Code auf verschiedenen Grakas ist auch klar. Mir gehts aber darum das wieder solche Dinge kommen wie, "jetzt gibts DX10 Games und die Graka packts trotzdem net" usw. wie Beispielsweise von k4ktus vorhin.
Klar darf man das CoH nicht als falsches DX10 Game abstempeln, schlussendlich bleibt aber trotzdem die Frage wie viel Code wirklich DX10 ist. Sprich solange sowas nicht geklärt ist, sind sodde allgemeinen aussagen wie von k4ktus vorhin unzutreffend.
Solche unqualifitierten Aussagen werfen sehr schlechtes Licht auf ein Produkt.
Siehe Stromverbrauch, anfangs haben alle grbrüllt 225 bzw. 250W und zu viel und bla blubb. Und wie viel sinds in wirlichkeit? 160 oder 170 oder sowas.
Sowas könnte man schon fast verblödung am Volk nennen. Einer plappert was vor, viele schreien es nach und am Ende glauben es alle, ohne wirklich selbst sich davon überzeugt zu haben.
Ähnlich hier bei Flagship und w0mbat, irgendwas wurde in die Menge gesetzt und alle habens geglaubt und sind barbarichst auf die Gusche geflogen. Viel zu leichtgläubig das Volk, ...

Ich möcht echt mal wissen warum sich jetzt alle wegen DX10 hier umstreiten müssen? Selbst wenn die XT besser in DX10 wäre (was keiner weiß und immer nur Vermutungen sind, genau wie die Vermutungen am Anfang wo die XT ja schneller sein sollte wie die GTX^^)...was nützt ihr das, wenn die Karte so derbe unter AA ein bricht? Wartet doch erst mal ab, ob dieser Bug behoben werden kann.

Klassisches Beispiel von meinem Beitrag über Volksverblödung. Sorry nicht persönlich nehmen ;) :fresse:

ATI hat doch von Anfang an soweit Dinge an die öffentlichkeit geraten sind gesagt, die XT wird Konkurent von der GTS.
Alles andere kam durch übereifrige Forenmember und Pages wie fudzilla usw. Alle haben es geglaubt und am Ende sind sie Entäuscht.
 
Zuletzt bearbeitet:
Klassisches Beispiel von meinem Beitrag über Volksverblödung. Sorry nicht persönlich nehmen ;) :fresse:

ATI hat doch von Anfang an soweit Dinge an die öffentlichkeit geraten sind gesagt, die XT wird Konkurent von der GTS.
Alles andere kam durch übereifrige Forenmember und Pages wie fudzilla usw. Alle haben es geglaubt und am Ende sind sie Entäuscht.

Ich nehme sowas nicht persöhnlich weil ich mich so oder so aus solchen Thread raushalte...ich warte immer bis Fakten da sind ;)
btw wegen ATI...naja die haben das auch nicht gerade ausgeplaudert das die Karte nicht der soo Bringer ist...die ganze Geheimkacke...usw...
Klar, wenn es hier viele gibt im Forum die alles glauben, dann habe sie selbst schuld :)

die Karte bricht ja nicht stark unter AA ein, eher bei bestimmten Spielen durch AF, da ihr hier die Füllrate fehlt, wenn diese Spiele füllratenlimitiert sind (Stalker, Cod 2). Hier sorgt OC aber ganz schnell für Abhilfe.
Die Karte bricht sehr ein bei AA und ich kann die CB Benches eher nur bestätigen...ist ja wohl traurig, das man erst OCen muß um das etwas zu beheben...eine GTS kann man auch sehr gut OCen ;)
 
Zuletzt bearbeitet:
Die Karte bricht sehr ein bei AA und ich kann die CB Benches eher nur bestätigen...ist ja wohl traurig, das man erst OCen muß um das etwas zu beheben...eine GTS kann man auch sehr gut OCen ;)

Eine GTS ist aber nicht füllratenlimitiert und hat von Standard aus mehr als genug Füllrate.

CB hat alle Benches mit AAA durchgeführt und hat nie die Settings 4AA/16AF gebenched!
 
Ich möcht echt mal wissen warum sich jetzt alle wegen DX10 hier umstreiten müssen?
Den meisten gehts hier gar nicht um DX10, Hauptsache ist schlechte Benches der XT zu posten und User anzugreifen die diese in Frage stellen.

Selbst wenn die XT besser in DX10 wäre...
Es ist genau das, was einige hier nicht akzeptieren können. Und das obwohl es eine im Konjunktiv geschriebene Vermutung ist :rolleyes:
 
Eine GTS ist aber nicht füllratenlimitiert und hat von Standard aus mehr als genug Füllrate.

CB hat alle Benches mit AAA durchgeführt und hat nie die Settings 4AA/16AF gebenched!
Jupp dafür wurde Nvidia ja mit TSSAA gebencht...
Sry, aber Du willst mir doch nicht erzählen das es ok ist, das man eine Karte erst OCen muß um genug Füllrate zu haben?
Auch die neuen PCGH zeigt das gleiche Bild.

Den meisten gehts hier gar nicht um DX10, Hauptsache ist schlechte Benches der XT zu posten und User anzugreifen die diese in Frage stellen.


Es ist genau das, was einige hier nicht akzeptieren können. Und das obwohl es eine im Konjunktiv geschriebene Vermutung ist :rolleyes:
Naja dann sollens doch schreiben...wenn es genug DX10 Games gibt, holt man sich sowieso wieder ne andere Karte^^
Kommt mir so vor wie damals wo die 6800er PS3.0 hatten^^

Wenn bei den Treibern noch was geht wäre die Karte gut, ist nur eine Frage der Zeit bis die XTs mit anderen Kühlern angeboten werden, wie zb bei Mad Moxx....
 
Zuletzt bearbeitet:
Stimmt es eigentlich, dass die 2900 XT nur bei bestimmten Spielen in hohen AA/AF-Raten einbricht (beziehe mich auf den neuesten Catalyst) ?

Und ab welchen Raten tritt sowas auf ? Ich bin immer ein Verfechter von wenig AA und wenig AF gewesen, da ich lieber in minderer Grafik, dafür aber mit maximalen FPS spiele (natürlich nie ganz ohne AA/AF ;) )
 
Stimmt es eigentlich, dass die 2900 XT nur bei bestimmten Spielen in hohen AA/AF-Raten einbricht (beziehe mich auf den neuesten Catalyst) ?

Und ab welchen Raten tritt sowas auf ? Ich bin immer ein Verfechter von wenig AA und wenig AF gewesen, da ich lieber in minderer Grafik, dafür aber mit maximalen FPS spiele (natürlich nie ganz ohne AA/AF ;) )

- Source Engine
- Call of Duty 2
- Far Cry

und da hört die Geschichte auf, alle anderen Games brechen net stark durch Hinzuschalten von AA ein.
 
Ich nehme sowas nicht persöhnlich weil ich mich so oder so aus solchen Thread raushalte...ich warte immer bis Fakten da sind ;)
btw wegen ATI...naja die haben das auch nicht gerade ausgeplaudert das die Karte nicht der soo Bringer ist...die ganze Geheimkacke...usw...
Klar, wenn es hier viele gibt im Forum die alles glauben, dann habe sie selbst schuld :)

Gerade des wegen weil sie so lange stillschweigend gewerkelt haben hätte man doch stuzig werden können.
Aber das verstehen halt einige net und müssen jetzt die Karte schlechter Reden als se ist, sie ist und bleibt nun mal der GTS Konkurent, fertig aus basta. Wie gut oder schlecht ne GTX in den Benches abschneidet ist dabei Recht egal.

Ob es natürlich förderlich für ATI ist, das sie keinen GTX Konkurenten fertig gebracht haben, steht auch nem anderen Blatt.

Und das man nicht alles glauben soll was vorher geplappert wird, ist logisch, leider scheint aber mittlerweile das Gegenteil zum Volkssport aufgestiegen zu sein.
 
also ich bin in sowas von super zufrieden mit meiner graka! die xt is schneller als die gts... das reicht... sie sollte auch der konkurent der gts sein und nicht der gtx (obwohl sie manchmal gleich schnell oder sogar schneller als die gtx is)!

für ca 320€ bekommt man ne super karte und die leute die sagen sie wär ne schrott karte die haben einfach nur unrecht!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh