ATI R600 2900XT "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da brauch ich ja dann 4 Stromanschlüsse, das Teil hat grad mal 8 Stück. Ich glaub ich brauch doch ein neues, toll.

Gibt es denn auch ein, wo dann gleich ein 8 pol und ein 6 pol dran ist so wie es eigentlich auf die Karte drauf soll?


yep, das besagte liberty enermax 500W, hat 6+2 pin stecker.
generell kannst du alles kaufen wo DXX drauf steht, das ist die Kennzeichnung für die neuen PCIe Stecker. Du kannst auch ein NT kaufen mit 2*6 pin und dann einen 6pin auf 8 pin Adapter nutzen.

edit: wenn du nicht über overdrive übertakten willst dann brauchst du den 8er sowieso nicht, 2*6 pin reicht völlig aus

ps: hier der link zu dem NT http://www.enermax.com/english/product_Display1.asp?PrID=63
 
Zuletzt bearbeitet:
yep, das besagte liberty enermax 500W, hat 6+2 pin stecker.
generell kannst du alles kaufen wo DXX drauf steht, das ist die Kennzeichnung für die neuen PCIe Stecker. Du kannst auch ein NT kaufen mit 2*6 pin und dann einen 6pin auf 8 pin Adapter nutzen.

od das gut ist, mit den adaptern? ist das nicht so da was passieren kann wenn die hardware zu wenig strom bekommt?
 
Grade gefunden.

Lost Planet Benchmark.
http://www.firingsquad.com/hardware/lost_planet_demo_directx_10_performance/page6.asp

Die werte sind schonmal richtig gut wenn man bedenkt das Nvidia sich das game zu Brust genommen hat.:lol:

Achtung bitte nicht gleich beleidigen.

http://de.theinquirer.net/2007/05/16/amd_macht_lost_planet_schlecht.html

das ist ja mal böse, hoffe es liegt wirklich nur am treiber.
http://www.pcgameshardware.de/?menu=browser&article_id=601352&image_id=654653
 
od das gut ist, mit den adaptern? ist das nicht so da was passieren kann wenn die hardware zu wenig strom bekommt?

man hat ja bei dem NT jeweils zwei lanes mit je 2*6 pin, man sollte dann nicht beide Stecker der gleichen lane nutzen (wenn man adaptiert), sondern ein 6 pin von der einen und dann 6 pin auf 8 pin von der anderen lane....

...aber du siehst ja auch, die Leute übertakten mit 2*6 pin und da gibt es keine Probleme.
 
Und wenn das MB über einen 5 1/4"-Anschluss verfügt, diesen bitte auch nutzen. Beim Gigabyte DS4 zb wird das bei SLI empfohlen. Kann aber auch bei Single Karten was bringen.
Wenn das NT unter Last allerdings zu arg dropt, dann bringt das alles sowieso nix. Neues, stabiles NT muss dann her.
 
so hier : Dies mal alles absolutes max, was man in dem Game einstellen kann



Das erste öffentlich verfügbare DX10-Spieledemo verbreitet sich heute über das Web. AMD warnt davor, es als Benchmark zu nutzen.
Click here to find out more!

Das Spiel gehört zu Nvidias TWIMTBP-Programm, obwohl es zuerst für die ATI-GPU innerhalb der Xbox 360 entwickelt wurde. Zahlreiche Kollegen der schreibenden Zunft erhielten gestern das folgende Rundschreiben von AMD/ATI, das dringend vom Einsatz des Demos als Benchmark abrät:

„Es wird erwartet, dass Nvidia morgen ein neues DirectX-Angebot in nzone.com in Form eines 'Lost Planet'-Benchmarks bereitstellt. Bevor Sie mit dem Testen beginnen, möchte ich auf ein paar Punkte bezüglich 'Lost Planet' aufmerksam machen. 'Lost Planet' ist ein von Nvidia geförderter Titel und einer, den sich Nvidia näher ansehen und die eigenen Treiber dafür optimieren konnte. Der Entwickler hat uns nicht auf diesen neuen Benchmark aufmerksam gemacht. Daher hatte das Treiber-Team für ATI Radeon nicht die Gelegenheit zu untersuchen, wie der Benchmark unsere Hardware nutzt und konnte auch nicht in ähnlicher Weise optimieren. In der nächsten Zeit wird AMD sich das vornehmen. Beachten Sie in der Zwischenzeit aber bitte, dass die von Ihnen beobachtete Leistung nicht dem entsprechen, was die Spieler in der endgültigen Fassung des Spiels erleben werden.“

Es war natürlich die gleiche Firma, die den von ATI gesponserten DX10-Benchmark „Call of Juarez“ einigen „wenigen ausgewählten“ Publikationen zukommen ließ in der Hoffung, damit entsprechend gute DX10-Berichte bewirken zu können - während sie anderen den Code verweigerte.
 
@Koyote008
Hast nicht Angst dass bei uns der Prozessor zu stark limitiert bei der neuen HD 2900 XT. Haben ja nur Singlecore und in welcher Auflösung zockst du mit welchen Q-Settings. Auch ich sollte die 1950 PRO 512 in Rente schicken, aber der Singlecore soll ja recht limitieren wie ich gehört habe, vor allem bei minimal fps. Möchte nicht die Katze im Sack kaufen und entäuscht werden.
 
@Koyote008
Hast nicht Angst dass bei uns der Prozessor zu stark limitiert bei der neuen HD 2900 XT. Haben ja nur Singlecore und in welcher Auflösung zockst du mit welchen Q-Settings. Auch ich sollte die 1950 PRO 512 in Rente schicken, aber der Singlecore soll ja recht limitieren wie ich gehört habe, vor allem bei minimal fps. Möchte nicht die Katze im Sack kaufen und entäuscht werden.


ich würde dir einen Dualcore empfehlen als minimum für eine HD2900XT.;)

Ich werde es in zwei Tagen wissen wie gut sich mein "kleiner" Prozzi hält mit der HD2900XT! Ansonsten ein wenig ocen und später einen Quad reintun.:d
 
Die Preise fallen sehr Rapide-da habe ich eine Frage

Wird die Karte laufen auf meine LCPower 550W Green Power NT?

Es hat 24A auf die 12V Leitung.

Die Karte wird schneller mit bessere Treiber und ist kaum Teuere als ein 8800GTS aber mich macht nur sorgen wegen die Stromaufnahme!

Mit die X1800XT langweilt meine C2D!

Und mit die 22" TFT kommt die X1800XT an seine Grenzen und bald kriege nix mehr für die Karte-darum bin schon am Überlegen 640MB GTs oder X2900XT.
 
Zuletzt bearbeitet:
@Koyote008
Hast nicht Angst dass bei uns der Prozessor zu stark limitiert bei der neuen HD 2900 XT. Haben ja nur Singlecore und in welcher Auflösung zockst du mit welchen Q-Settings. Auch ich sollte die 1950 PRO 512 in Rente schicken, aber der Singlecore soll ja recht limitieren wie ich gehört habe, vor allem bei minimal fps. Möchte nicht die Katze im Sack kaufen und entäuscht werden.


Hi Berni ;)

Ich habe nen C2D E6400 @ 3,20 Ghz & 4GB DDR2-800+

... meine Signatur ist nur alt +fg+

Auch früher hatte ich keine Angst vor CPU Limitierung -
obwohl ich ja immer nen Sli-System hatte -
denn bei anspruchsvollen Games limitiert eh die Grafikkarte(n)
- und wo nicht ist eh Leistung genug - nur wenige Games
sind CPU Limitierend.

Allerdings profitieren schon einige Games von DC - und die Grundpower
macht auch einiges - aber warum solltest Du trotzdem nicht glücklich
sein über ne X2900XT oder GTS ?

Gruss Koyote008


ich habe da 47.63 fps alles auf höchsten einstellungen

Blödsinn .... 20-25 FPS wenn Du alles auf Anschlag hast (1280x960).

Greetz Koyote008
 
Zuletzt bearbeitet:
Die Werte sind gar nicht gut und vergleichbar, wenn man bedenkt, dass die XT dort weniger rendert und einige Sachen nicht korrekt darstellt.
http://www.legitreviews.com/article/505/2/

Uf Firingsquad haben die doch genau wegen denn Bildfehlern mit denn Dx 9 Modus getestet.Da gibts keine Bildfehler auf einer X2900 XT.

ll further testing was conducted with the DX9 version of Lost Planet. We cranked all the game’s settings up to their highest levels, with the exception of HDR lighting, which we left at “medium” for the GeForce 8800 and Radeon HD 2900 XT cards, and “low” for the GeForce 7900 GTX/7950 GT and Radeon X1950 XTX.

Rather than rely on the built-in performance demo, we booted up the hive infiltration mission from the demo and recorded frame rates with FRAPS.



Erst lesen dann versuchen zu bashen.^^
 
Zuletzt bearbeitet:
Ist HDR wirklich auf MAX ?

Naja - 25-30 FPS bei den Settings - schwer spielbar - habs mal
probiert.

Könntest Du nochmal mit 2xAA / 8xAF testen ?

Greetz Koyote008


1280x960, 4AA/16AF, HDR, max

snow: 37 FPS
cave: 49 FPS


1280x960, 2AA/8AF, HDR, max

snow: 41 FPS
cave: 54 FPS


C2Q @ 4 GHz + 2900XT @ 890/1000
 
1280x960, 4AA/16AF, HDR, max

snow: 37 FPS
cave: 49 FPS


1280x960, 2AA/8AF, HDR, max

snow: 41 FPS
cave: 54 FPS


C2Q @ 4 GHz + 2900XT @ 890/1000


Danke für die Mühe .... aber nen Quad OC - XT OC ...
da muss ich soviel runterrechnen für mich :fresse:

Also ca. 5FPS mehr bei 2xAA ... Dankeschön :)

Greetz Koyote008
 
Hab mal mitgetestet mit meiner 8800GTX @standart damit ein vergleich steht für die keine von beiden haben.






 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh