ATI R600 2900XT "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen (Part 2)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
man oh man wenn ich das so sehe hier was manche mit der Karte für Ergebnisse haben einfach nur genial.ich kann die Karte auf 850 un900 takten mit dem x26000 habe ich bei 3,1 ghz immer nur gerade mal 10400 Punkte im 06 unter vista ultimate.ist schon verrückt was die CPU für einen gewaltigen unterschied macht und die Karte derart stark limitiert wird durch den schwachen 6000 CPU.

das ist doch nichts weiter als ein benchwert, also wo liegt das problem?
 
Mekki hat doch auch Vista und den X2 6000, hat der auch so ein ergebnis?
 
klar es ist ja auch egal aber man sieht sie stark die Karte ausgebremst wird ne neue neue j´Karte benötigt auch wieder ein neues System weil die CPU einfach zu stark limitiert hat es einfach keinen Sinn
 
denke mal die karte ist für meine x2 6000 schon zu stark die x1950xtx war genau die richtige für diese cpu.
Hinzugefügter Post:
werde am Dienstag nochmal xp pro raufmachen und mal vergleichen ob es wirklich an vista liegt.
 
Zuletzt bearbeitet:
Die CPU bremmst doch nicht, das ist quatsch. O.K. kommt auf die Auflösung drauf an, aber in niedriger Auflösung hat man eh genug Frames, da ist es egal ob 160 oder 180FPS bei z.b. 1024x768.
Ich hab letztens mal getestet CPU einmal 3,0ghz und 3,6ghz bei 1680x1050
HL2LC bench waren es 105 zu 108 FPS
Stalker waren die FPS gleich.

:d
 
hat scho einer Palit/XpertVision oder Powercolor
die beiden könnte Ich für 335€ bzw. 340€ haben, wie siehts bei denen mitm Softwarebündel aus?
 
Sapphire HD 2900XT

Habe gehört, dass der Kühler von Sapphire leiser sein soll. Ist das richtig?
 
Habe gehört, dass der Kühler von Sapphire leiser sein soll. Ist das richtig?

Denk ich nicht ,so lange das Referenzdesign von ATI genommen wird.


# XFX GeForce 8800 Ultra XXX Edition (675MHz/2.3 GHz)
# XFX GeForce 8800 GTX (575MHz/1.8GHz)XFX GeForce 8800 GTX (575MHz/1.8GHz)
# BFG Technologies GeForce 8800 GTS OC2 640MB (580MHz/1.7GHz)
# ATI Radeon HD 2900 XT (743MHz/2.0GHz)ATI Radeon 2900 XT HD (743MHz/2.0GHz)

Die GTS ist 16% geoced :cool:

http://www.chiphell.com/viewthread.php?tid=5044&extra=page=1
 
Zuletzt bearbeitet:
Naja wenn man die Lautstärke verbessert, erhöht man gleichzeitig die Temperaturen. Die Benches von der 1gb XT sagen leider nix aus, da ja ohne AA u. AF. Ich kann mir kaum vorstellen das die Treiber noch so viel rausholen...die Karten brechen zu krass unter AA u. AF ein :( Ich kenne keine Karte die zu Start schlechtere Treiber hatte. Hab mir das ganze nochmal durch den Kopf gehen lassen und werde aufgrund der höheren Leistung (mit AA u. AF) wohl wieder ne GTS kaufen. Die Gefahr das die XT da nicht schneller wird ist mir zu groß. Wünsche aber allen, das alles noch gut wird mit den Treibern :)
Ich hoffe mal das ATi da noch nach legt, denn sobald AA/AF aktiviert wird hat die HD ja schon zukämpfen das die nicht vom Vorgänger X1950 XTX platt gemacht wird, das kann ja nicht das ziel von ATi gewesen sein. Also irgendetwas haut da überhaupt nicht hin oder der Chip hat irgendwo einen Fehler den ATi versucht hat verzweifelt zu beseitigen, dies aber nicht gelang.
 
Wiso der Stromverbrauch ist garnicht so schlimm wie die meisten denken.
Denn durch runtertakten im 2D spart man ca. 20 Watt, damit wäre sie auf G80 niveau.
Und ein G80 läuft unter Vista mit Aero im 3D Modus und zieht ordenlich was durch.
:coolblue:

Neja der ist schon sehr gewaltig muss ich sagen, ...
Hier mal meine Werte vom 1.6.2007, System siehe Sig.

idle:
010620070232hc2.jpg


load (4xPrime + Datentransfer vom Raid5 zum Raid0)
010620070262ru4.jpg


load (3xPrime95 + 3DMark06 + Datentransfer vom Raid5 zum Raid0)
010620070242jt9.jpg


load (4xPrime95 + 3DMark06 + Datentransfer vom Raid5 zum Raid0)
010620070252un8.jpg


idle 222,84W (Graka auf 350/350) und unter Volllast 469,775W (Graka auf 840/1050)
Wobei ich mich frage was CB da gemessen hat. Selbst wenn die Absenkung von Std. 2D auf 350/350 wirklich 20W bringen soll, dann wäre ich bei 242W im Gegensatz zu den 233W von CB. Man beachte aber mein System im Gegensatz zu dem von CB, ich sag nur 7 Platten, 2CPUs und 4xFB-Dimm Speicher, ... :teufel:

Habe gehört, dass der Kühler von Sapphire leiser sein soll. Ist das richtig?

Ne auf der Sapphire ist genau so wie auf allen anderen Karten der Std. Ref. Kühler drauf. Zumindest in der Variante wie sie derzeit verkauft wird.
Es gab ja mal Pics das Sapphire irgendwie nen speziellen Kühler verbauen will, wann diese Version kommt, bzw. ob sie überhaupt kommt weis ich net!

@all
mir ist gestern aufgefallen das bei Stalker bei mir alle paar Minuten ein GPU Recovery kommt, warum auch immer.
Schalte ich es im Treiber hart aus, geht die Karte trotzdem ohne Probs, ...
Selbst mit 810MHz kommt das noch, ... nach nem Neustart gingen wieder die 844/1046MHz, und das ohne Probs.

Irgendwie komisch, woran kann das liegen.
Aber bin dennoch ganz zufrieden mit dem Teil, Stalker läuft endlich mal flüssig, ging ja vorher mit der X1950Pro so gar nicht, ... ;)
 
Zuletzt bearbeitet:
@all
mir ist gestern aufgefallen das bei Stalker bei mir alle paar Minuten ein GPU Recovery kommt, warum auch immer.
Schalte ich es im Treiber hart aus, geht die Karte trotzdem ohne Probs, ...
Selbst mit 810MHz kommt das noch, ... nach nem Neustart gingen wieder die 844/1046MHz, und das ohne Probs.

Irgendwie komisch, woran kann das liegen.
Aber bin dennoch ganz zufrieden mit dem Teil, Stalker läuft endlich mal flüssig, ging ja vorher mit der X1950Pro so gar nicht, ... ;)

Protokolliere mal mit dem RivaTuner die Taktraten von GPU und Ram im Hintergrund mit!
Ich habe den Verdacht dass bei deaktiviertem VPU-Recover die GPU throttelt, ähnlich wie bei NV-Karten.
Gerade STALKER ist extrem GPU-fordernd, eine zu hohe Übertaktung wird sich hier ziemlich deutlich zeigen!

MfG :cool:
 
Protokolliere mal mit dem RivaTuner die Taktraten von GPU und Ram im Hintergrund mit!
Ich habe den Verdacht dass bei deaktiviertem VPU-Recover die GPU throttelt, ähnlich wie bei NV-Karten.
Gerade STALKER ist extrem GPU-fordernd, eine zu hohe Übertaktung wird sich hier ziemlich deutlich zeigen!

MfG :cool:

Mein Rivatuner, 2.01 müsste das glaube sein, unterstützt die Karte noch net. Kann aber durchaus sein, halte ich aber für unwarscheinlich. Karte lag bei 76,0°C laut AMD Tool. Man würde ja sicher auch bemerken wenn die Taktrate auf einmal einbricht, sprich es müsste extreme hänger geben, was auch net der Fall war, ...
Vor allem, mit der alten X1950Pro hatte ich auch bei zu hohem Takt dieses Problem, nur wurde dort bei ner Übertaktung + daraus resultierendem GPU Recovery der Takt wieder auf Std. Takt zurück gedreht, was hier auch net der Fall ist. Sprich der springt raus aus dem Game, ich klick die Fehlerbericht senden Meldung weg und kann gleich wieder ins Game welchseln, auf meinem zweiten Monitor läuft gleichzeitig das AMD Tool mit und dort springt der auch sofort wieder auf die besagten 8440/1046 MHz. Sprich er setzt die Taktrate nicht zurück.

Two Worlds lief mit 2°C weniger, aber ohne GPU Recovery.
Ich hab so das Gefühl das liegt an dem Treiber, ist Problem ist mir auch erst seit dem 7.5 Final aufgefallen, ... nur hab ich keine Lust erst wieder alles Treibermäßig runter zu bügeln und den alten wieder drauf zu machn :heul:
 
Zuletzt bearbeitet:
du bekommst nur den code, damit werden die games in deinem steam acc freigeschaltet...kannst die dann downloaden.

Cool :) Ich hab ISDN, wegen Glsfaser in unserer Siedlung (kein DSL möglich). Das kann ja was werden ;-)
Ich kenn mich bei Steam nicht so aus, kann ich mir das auch von jemandem runterladen lassen und dann offline spielen ?

Und nochwas anderes: Es wurde ein paar Posts weiter oben erwähnt ein X2 6000+ würde die 2900 XT limitieren !? Stimmt das wirklich ?
Wieviel Limitierung habe ich denn dann mit meinem X2 4600+ (ich spiele ausschließlich in 1280x1024) ?

Und ab welcher CPU würde man die GPU denn gar nicht mehr limitieren ?
 
würde mich auch interessieren! Wird wohl start auf das Game ankommen... @640x680 ohne AA/AF/AAA wird die CPU sowieso mal zur limitierenden Komponente... Aber wie siehts in realen Game-szenarien aus?
 
Das ist quatsch, und kommt vorrangig von solchen Leuten, die immer wieder rum posaunen müssen, um anstendig zu Zocken brauch man nen OC'ed C2D mit sonstwieviel GHz.
Also es kann sein das ein 6000+ an bestimmten stellen Limitiert. Zum Beispiel mit massivem einsatz von Physikberechnungen oder bei Strategiegames ala Supreme Commander, ...
Normale Games sprich Shooter laufen mehr als ausreichend mit dem 6000er.

Dieser liegt übrigens in etwa zwischen E6600 und E6700.
Wenn man sich beispielsweise diese Steamumfragen ansieht, was dort die Leute für Rechner haben, ...
Der Großteil der Leute außerhalb dieses Forums OC'ed wohl nicht. Wenn man dann noch bedenkt wie viele Leute davon nen E6700 oder X6800 haben, und wie viele deutlich schwächere CPUs besitzten, da bist du in dem Fall mit nem 6000+ sehr gut bedient!
 
Zuletzt bearbeitet:
Dieser liegt übrigens in etwa zwischen E6600 und E6700.
Ach ja ? Dann ist es wirklich so, dass der C2D E6700 mit 2x 2,6 Ghz besser ist als ein X2 6000+ mit 2x 3 Ghz ?
... da bist du in dem Fall mit nem 6000+ sehr gut bedient!
Und wie stehts bei mir mit dem 4600+ ? In welchem Bereich spielt sich eine solche Limitierung ab ? Sind das wenige fps, sprich 5-10 oder sind das Größenordnungen á la 30 fps im Vergleich zu, wenn ich ich einen E6600 hätte ?
 
Ach ja ? Dann ist es wirklich so, dass der C2D E6700 mit 2x 2,6 Ghz besser ist als ein X2 6000+ mit 2x 3 Ghz ?

Und wie stehts bei mir mit dem 4600+ ? In welchem Bereich spielt sich eine solche Limitierung ab ? Sind das wenige fps, sprich 5-10 oder sind das Größenordnungen á la 30 fps im Vergleich zu, wenn ich ich einen E6600 hätte ?

genau, der X2 braucht mehr MHz um genauso schnell wie ein C2d zu sein!

ein 4600+ sollte wohl einem E4300 oder E6300 entsprechen (behaupte ich jetzt einmal)
 
Ach ja ? Dann ist es wirklich so, dass der C2D E6700 mit 2x 2,6 Ghz besser ist als ein X2 6000+ mit 2x 3 Ghz ?

Und wie stehts bei mir mit dem 4600+ ? In welchem Bereich spielt sich eine solche Limitierung ab ? Sind das wenige fps, sprich 5-10 oder sind das Größenordnungen á la 30 fps im Vergleich zu, wenn ich ich einen E6600 hätte ?

Joa es gibt natürlich immer auch tests in dehnen der AMD deutlich besser als ein vergleichbarer C2D anschneidet.
Aber so im Schnitt sollte er 6000er sich zwischen E6600 und E6700 einfinden.


Der 4600+, mhh neja ist schon deutlich langsamer als ein C2D.
Das sind ganze 600MHz Unterschied, also ich meine mal für nen E6400 reicht es nicht, eher drunter, ...
Aber das tut nix zur Sache das dort mit hohen Quallieinstellungen trotzdem eher keine merkbare Limitierung Eintritt.
Die Min. FPS werden wohl ein wenig niedriger liegen.
 
Mein Rivatuner, 2.01 müsste das glaube sein, unterstützt die Karte noch net. Kann aber durchaus sein, halte ich aber für unwarscheinlich. Karte lag bei 76,0°C laut AMD Tool. Man würde ja sicher auch bemerken wenn die Taktrate auf einmal einbricht, sprich es müsste extreme hänger geben, was auch net der Fall war, ...
Vor allem, mit der alten X1950Pro hatte ich auch bei zu hohem Takt dieses Problem, nur wurde dort bei ner Übertaktung + daraus resultierendem GPU Recovery der Takt wieder auf Std. Takt zurück gedreht, was hier auch net der Fall ist. Sprich der springt raus aus dem Game, ich klick die Fehlerbericht senden Meldung weg und kann gleich wieder ins Game welchseln, auf meinem zweiten Monitor läuft gleichzeitig das AMD Tool mit und dort springt der auch sofort wieder auf die besagten 8440/1046 MHz. Sprich er setzt die Taktrate nicht zurück.

Two Worlds lief mit 2°C weniger, aber ohne GPU Recovery.
Ich hab so das Gefühl das liegt an dem Treiber, ist Problem ist mir auch erst seit dem 7.5 Final aufgefallen, ... nur hab ich keine Lust erst wieder alles Treibermäßig runter zu bügeln und den alten wieder drauf zu machn :heul:

Hm ok, dann throttelt die Graka wohl nicht.
Gab es das Problem denn mit den anderen Treiber(n) nicht?
Wenn es damit lief würde ich wohl oder übel wieder den alten Treiber drauf bügeln.

MfG :cool:
 
http://hardware.thgweb.de/charts/prozessoren.html?modelx=33&model1=434&model2=694&chart=172

Gehört zwar nicht zum Topic! Beantwortet aber ein paar Fragen!

Wobei der 6000+ nur mit DDR750 werkelt!

Der Test ist fürn Po und sagt nix über die Leistungsfähigkeit der CPU aus.
Erstens ist es ein Memory Test, sprich es hat was mit speicherbandbreite zu tun und zweitens ist es ein Syntetischer Bench, wenn ich da noch an P4 und A64 Zeiten denke, die P4s waren da doch schon immer ganz oben mit dabei, sobalds um "echte" Anwendungen ging, war ende im Gelände, ...
 
Hm ok, dann throttelt die Graka wohl nicht.
Gab es das Problem denn mit den anderen Treiber(n) nicht?
Wenn es damit lief würde ich wohl oder übel wieder den alten Treiber drauf bügeln.

MfG :cool:

Das weis ich so nicht genau, da ich vorher noch net aktiv gezockt habe, zumindest sind mit den alten Treibern mehrere 3DMark durchläufe durchgerannt, ohne Probs.
Es ist ja nicht so das das erst irgendwann kommt, ne das kommt gleich wenige Sekunden nach dem das Game gestartet wurde (also nicht im Menü, sondern schon direkt in der Spielwelt) von daher müsste ja im 3DMark auch gleiches kommen, kam aber net, daher der Verdacht das es am Treiber liegt.

Werd aber sowieso die Tage wohl mal Win neu drauf schmeißen und bei der Gelegenheit gleich mal auf XP 64Bit switchen (wegen den 4GB Speicher)
Ne zweite Partition für Vista wird auch gleich eingerichtet, nur hab noch ich kein Bock auf Vista, ist mir noch zu früh, ...
Hinzugefügter Post:
@fdsonne
du kannst da ja aus dutzenden benchs. auswählen!

Hehe stimmt, ist mir gar net aufgefallen, ...
Dann ist das natürlich was anderes, ... ;)
Wobei die in den Games auch nur in 1024x768 und ohne AA/AF testen, sprich die CPU limitiert schon deutlich.
Das interessante ist ja eher wie der Unterschied ist wenn ne Grakalimitierung eintritt.
 
Zuletzt bearbeitet:
Fragt sich trotzdem noch, wie viel wirkicher DX10 Code in diesen gepatchten DX9 Titeln steckt. Beurteilen kann man das meiner Meinung nach noch nicht...
 
Fragt sich trotzdem noch, wie viel wirkicher DX10 Code in diesen gepatchten DX9 Titeln steckt. Beurteilen kann man das meiner Meinung nach noch nicht...

dennoch steckt bei nvidia und ati gleichviel dx10 in den titeln ^^ und es ist doch ein vergleich möglich... ^^
 
@Mondrial
sehe ich ähnlich, wie soll man bitte beispielsweise bei CoH mit nem 12 oder 13MB Patch DX10 nachschieben, wenn die vergehenden Patches schon größenordnungen vom 50-100MB hatten.

Das hat am Ende nicht viel mit DX10 zu tun, ... und das bei allem Games. Sprich sowohl CoJ, Lost Planet als auch CoH sind DX9 Games mit ein paar wenigen, scheinbar unausgereigten DX10 Zusatzeffekten.
Unterschiede sieht man ja bei CoH so gut wie gar nicht, außer das die FPS Rate extrem einbricht, ...

dennoch steckt bei nvidia und ati gleichviel dx10 in den titeln ^^ und es ist doch ein vergleich möglich... ^^

Gerade der Vergleich machts nicht wirklich möglich, denn man müsste davon ausgehen das die Karten bei DX9 genau die gleichen Werte liefern um den DX10 Wert vergleichen zu können, ... vor allem wer weis wirklich wie viel DX10 da drin steckt, denn wenn es um die Aussage geht, besser in DX10, dann kann man das nicht mit nem Game testen, wo vllt alle 10min mal ein einziger DX10 Effekt zu sehen wäre.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh