ATI R600 2900XT "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen (Part 4)

Status
Für weitere Antworten geschlossen.
GPU Recovery kommt nicht nur bei zu heis, das kommt unter anderem auch wenn zu viel OC'ed wurde, oder die Spannung für den eingestellten Takt nicht ausreicht.
Scheinbar ist es aber auch so das mit manchen Treibern GPU Recovery häufiger auftritt als mit anderen, bei sonst gleichen Einstellungen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
cool, was haste mit einer GTX ?

mit der GTX bei gleichem CPU-Takt knapp 600Punkte mehr
@Audidriver: bei 860/935Mhz
@Le_frogg99: ja aber bei Benches in default Auflösungen geht die ATI echt gut und bei MoH, Bioshock,TDU, Dirt, M3 Challenge kann ich auch nicht meckern, selbst in 1600*1200, denke eine GTS dürfte sie klar schlagen, nur die GTX ist schon etwas schneller.
 
Richtig schneller in vielen Sachen als die GTS ist sie jetzt auf jeden Fall.
;)
 
mit der GTX bei gleichem CPU-Takt knapp 600Punkte mehr
@Audidriver: bei 860/935Mhz
@Le_frogg99: ja aber bei Benches in default Auflösungen geht die ATI echt gut und bei MoH, Bioshock,TDU, Dirt, M3 Challenge kann ich auch nicht meckern, selbst in 1600*1200, denke eine GTS dürfte sie klar schlagen, nur die GTX ist schon etwas schneller.

Bist gleich nen Fanboy pass auf, du hast gesagt sie ist schneller als ne GTS:shot:
 
klar vpu recover weil zu heis ?
ich hab doch geschreiben das es nur im windows vorkommt warum dan nicht unter games ?

btw noch nie cs gespielt und habs auch nie vor..

edit rockt wa ?

willkommen im club!
ich hatte (3mal holz klopf) das problem auch, und die karte war vorher noch nie overclocked!
hatte es jeden 2. tag und ganz sporadisch :/
verwendest du dual monitoring?

so long
 
Bist gleich nen Fanboy pass auf, du hast gesagt sie ist schneller als ne GTS:shot:

Ist sie ja bis auf wenige Ausnahmen (Lost Planet z.B.) auch...:) Hehe ich bin nur Leistungsfanboy, dabei ist mir egal ob NV oder ATI drauf steht. ;) Wobei ich bei dem Preis/Leistungsverhältniss der 2900er evtl auch CF gemacht hätte, allerdings hatte ich zu dem Zeitpunkt ja meine beiden GTX schon ne Weile.
PS: Falls jemand Lust hat wir zocken dann mit einigen Leuten BF2
 
schneller :asthanos:


frag sich blos, ob sie genau so Laut ist und genau so viel Strom frisst
 
Mal was anderes:

Woher bekomme ich denn so ein Adapter 8 Pin auf 6 Pin, wie z.B. bei MSI mit dabei ist ?
Hab schon etliche Shops durchstöbert, aber nix gefunden....
 
für was brauchst du so nen Adapter?
Der bringt dir außer der Möglichkeit Overdrive im CCC zu nutzen keinen Vorteil. Eigentlich alles was du im CCC machen kannst, geht auch mit externen Tools... also lass weg das Teil.
 
Weil ich kein externes Tool benutzen möchte ;)

Kann doch nicht sein, dass es diesen Adapter nirgens gibt...
 
Ne sorry, aber was hindert dich daran das AMD GPU Clock Tool zu nehmen, wenns ums OC'en geht?
Ich kann solche Leute nicht verstehen... das ist mir einfach zu hoch!?

Wenn du unbedingt das komische Overdrive nutzen willst, dann bau dir halt so nen Adapter selbst, sprich die beiden übrigen Pins einfach an Masse anklemmen und gut.
 
Ich mein, es ist ja ganz schoen und so, aber mit anderen Tools gehts auch.
Unn zum Beispiel mit dem ATI Tool kannste noch ganz andere Sachen verstellen als den Takt.
 
Wegen der HD 2900 Pro. Die ist dann ja eigentlich perfekt im Segment angesiedelt oder? Hat dann ja das Potenzial an eine 8800 GTS ranzukommen oder? Und auch der Stromverbrauch ist ja laut Geizhals sehr niedrig!

So und die 25Mhz zum Speichertakt kriegt man ja bestimmt hin. Und 124Mhz beim Chiptakt kriegt man mit Glück hin. Denke aber das der Chiptakt ab 680 Mhz nicht mehr so gut höher geht, denn anders kann ich mir den niedrigen Stromverbrauch der Karte nicht erklären.

Oder ATI hat sehr gute Arbeit geleistet und auch die Architektur geändert. Das würde dann ja bedeuten das der Nachfolger der 2900 XT auch weniger Strom verbrauchen könnte oder?

mfg.TK
 
Aber selbst wenn nur den Speichertakt und den Chiptakt auf 650Mhz dann wäre das auch so nen absoluter Knülller oder?

Weil die XT ist ja mitlerweile doch schneller als die GTS. Dann könnte die Pro mit OC ja knapp unter der GTS sein. Das hieße dann für Nvidia, dass zwar die GTX schneller ist, aber die GTS im Preis/Leistungsverhältnis deutlisch schlechter wäre als bei der Pro.

Oder sehe ich gerade was falsch :lol: Eigentlich nicht oder :fresse:

mfg.TK
 
Wenn man die Pro gut OCen kann, dann müsste NV sich warm anziehen.
Ne Karte für 230€(?) die eine Karte für knapp 320€ schlagen kann. :)

(ich hoffe dieser post wird nicht gleich wieder als Fanboygelaber abserviert)
 
Tut ihr mir den Gefallen und verlagert die Diskusion in den 2900Pro Thread hier :) danke euch...
 
Wenn man die Pro gut OCen kann, dann müsste NV sich warm anziehen.
Ne Karte für 230€(?) die eine Karte für knapp 320€ schlagen kann. :)

(ich hoffe dieser post wird nicht gleich wieder als Fanboygelaber abserviert)

Ist doch kein Fanboygelaber :wall: :btt:

Ist nunmal so. Die Pro taktet 600/800 und die XT mit 724/825 Mhz.
Daher denke ich das der Speichertakt bestimmt auf 825Mhz geht und der Chiptakt auch in Richtung 680Mhz gehen wird. Und das sind dann in "" nur 44Mhz weniger als die XT. Und sie verbraucht laut meinen Informationen nur 150 Watt. Das sind dann 65 Watt weniger als die XT.

Das wäre in allem dann ja der absolute Knüller!

mfg.TK

@ le frogg

Klar.. Habe deinen Post gerade erst gesehen.. Werde ich gerne befolgen!
 
Um einen Preis/Leistungsvergleich anzustellen, darf man aber nur non OC'ed Karten vergleichen, das sollte klar sein...

Also soll nicht die 2900Pro auch noch in 80nm gefertigt werden, und erst die 2950Pro in 65nm?
Wenn dem so wäre, liegt es nah, das für erstere Chips der XT genommen werden, die nen Fehler in der Speicheranbindung haben (wo man also die hälfte abgeschalten hat) oder aber Chips welche die 743MHz der XT nicht bei max. 1,2V schaffen...

Ich wage mal zu behaupten, das man die Pro Chips idR nicht auf XT Takt bekommen wird!

@TK-2006
die XT brauch ca. 160W unter Volllast, die angegebenen 225W ist die TDP angabe und hat rein gar nix mit dem Verbrauch zu tun.
 
Zuletzt bearbeitet:
Fairer wärs, aber es ist doch schoen zu wissen, dass eine 200€ Karte eine 300er Karte schlagen kann, wenn auch OC gegen non-OC

Naja, man hat die 1900XTs auch auf XTX-Niveau bekommen, vllt ist das ja wieder so.

Und nun wieder:
:btt:
 
Mal eine Frage zu der XT:

Wenn ich mir diese anschaffen würde, und dort Wakü verbaue und nun die Karte wider umrüsten möchte. Muss ich mir dann irgendwelche speziellen Wärmeleitpads wie bei der 8800GTS besorgen? Oder sind die WLPads alle wieder verwendbar. Weil sind ja glaube ich teilweise Pads drauf.

Und noch eine Frage: Liegt allen Karten dieser DVI-HDMI Adapter bei? Ist zufällig auch ein HDMI Kabel vorhanden?

mfg.TK
 
Dann könnte ich mir ja eigentlich eine günstige 2900 Xt raussuchen und gut is. Das Kabel könnt ich sonst ja auch in einem TV Laden kaufen... Das würde ja ausreichen!
 
@HollY_D
neja die XT lässt sich hingegen auch recht gut OC'en, wenn man eine mit 1,2VGPU Spannung erwischt hat, dann sind mit Lukü 850 und mit Wakü um die 900MHz drin, bei Kokü scheinbar sogar noch mehr!

Aber wie gesagt, ich denk die Pro wird ausgesonderte XT CHips bekommen...
Gerade weil ja jetzt scheinbar die Spannung bei nahezu allen Herstellern der XT-Karten auf 1,1 oder 1,15V gesenkt wurde, denke ich werden die schlechteren Chips einfach auf die Pro geschraubt und trotzdem verkauft...
 
kennt jemand von euch den Unterschied zwischen der

MSI HD2900XT und der RX2900XT???
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh