ATI R600 2900XT "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen (Part 3)

Status
Für weitere Antworten geschlossen.
mhh aber das aknn ich garnet anwählen, das ist grau unterlegt un d kann da nix verstellen :hmm:

Edit: ok habs hin bekommen, lol zwischen 640x480 (45 FPS) und 1920x1080 (34 FPS)liegen nur paar FPS mit 4xAA und 16xAF, aber selbst in 640x480 läuft es sehr kacke.
Na mal sehen was neue Treiber noch bringen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Richtig, genau die Auflösung spiele ich, daher habe mehrere Spiele die min. 512mb ausnutzen ;)
Mir wäre wichtig, dass sie nicht "etwas" besser geht sondern schon rentabel besser.
Sicher wird auch diese Karte nicht länger als ein halbes Jahr drin sein, aber wer weiß...
Das mit der Valve Box wäre mir noch wichtig.


Zum einstellen der korrekten auflösung muss auch die richtige hz zahl eingestellt sein, dann gehts ;)


vom P/L her ist die 1GB Variante nicht wirklich ein Schnäppchen, mehr Performance bekommst du damit nicht.
Die 1GB lohnen sich bei extremen Speicherbandbreiten, also wirklich extremen Auflösungen, wo dann über 500MB für Texturen daufgehen bzw die bandwidth limitiert...
Da würden dann alle Karten mit zu wenig Vram sofort einbrechen unabhängig von der GPU Leistung. Mir ist aber eigentlich bis jetzt nichts bekannt was solche resourcen verbraucht(korrigiert mich wenn ich mich irre)

Da die Karte bei dir sowieso nur ein halbes Jahr drin bleibt würde ich dir dann dringend zur 512MB raten, die 90€ sind es einfach noch nicht Wert ausser du willst dir neben der Grafikleistung auch das Gefühl von Performance erkaufen :)
 
Na hab jedenfalls jetzt die Asus bestellt und nicht die HIS ;)

Ganz einfache 2 Gründe:
-Die HIS ist noch nicht lieferbar
-Ausserdem wollte ich ja von der Ultra etwas abrüsten mit ein wenig Gewinn, der ist bei der 1Gig Variante nicht so hoch.

Nehme also an, dass die Karte in paar Tagen da ist, bis dahin rüste ich die Wakü ab und dann kann ich nen schönen Vergleich zur Ultra ziehen. Da bin ich aber mal echt gespannt :fresse:

Aber Speicher kann man schon ordentlich verbraten, z.b. Dirt knallt den Ram der Ultra wirklich voll ;)
 
Kann einer mal mit XP DIRT Testen wieviel VRAM die ATI fressen tut ?
Ich hab Vista da geht das net :(

Aber selbst in 1680x1050 4xAA 16xAF kann ich kein VRAM Overload festellen, und sowas merkt man ja wenns nachladeruckler geben tut, was bei mir nicht der fall ist.
 
Ist ja nicht nur der VRAM ausschlaggebend sondern der Durchsatz, daher kann man jetzt die 768MB der GTX nicht mit den 512 oder 1GB der XT vergleichen...Stichwort ringbus usw....externe/interne Anbindung....

In einigen Games wird die hohe VRAM Belegung auch angestrebt ohne es wirklich zu nutzen, teilweise wird auch die Qualität angepasst oder öfter nachgeladen ohne merkbaren performanceunterschied
 
Ich hab mal HL2 LC auf VISTA 64bit gehauen und hab mit dem 7.8er mehr FPS als 7.7er bei XP.
Kann aber Direkt nicht vergleichen da sich mein XP letzten verabschiedet hat :angel:

HL2 LC, 1920x1080,High, 4AA/8AF

7.7 Final bei XP32--> 94FPS
7.8 Beta bei VISTA64->101FPS 7-8% mehr :confused:

System
E66@3,33ghz
HD2900XT(stock)
4Gb Ram

Vielleicht liegts auch am VISTA 64bit (HL2 nutzt ja 64bit OS).
:)

Ich bin jetzt mit XP32bit nochmal zum Testen gekommen.

HL2 LC, 1920x1080,High, 4AA/8AF

7.7 Final bei XP32--> 94FPS
7.8 Beta bei XP32-->107FPS ca. 14% mehr

Also hat es bei Source Games ein kleinen Schub gegeben, wurde ja von anderen Usern auch bei CS S festgestellt. :)
 
@All

Bin sicher das unsere Karten (GTX,GTS,XT) bald alt aussehen werden.
Meine wenn DX10 richtig loslegt.
Aber dann ist bei uns Freaks sowieso wieder Aufrüstzeit.

Bei den heutigen Games ist es fast egal welche man von den 3 hat.

Greetz
Pistole
 
Kann einer mal mit XP DIRT Testen wieviel VRAM die ATI fressen tut ?

Ich weiß es jetzt net ausm Kopf, aber sagen wir mal es sind auf jeden Fall über 512mb ;)
Mit Ultra Details, 1680x1050, 4xAA und 16xAF.
Schau mal in den "Spiele die mehr als 512mb..." Thread, da ist ein Shot mit richtig derber Auslastung drinnen :bigok:
Dirt ist auf meiner Ultra momentan das Ressourcen fressendste Spiel, bin gespannt wie es auf der Ati läuft.
Die Ultra macht meistens über 35fps.

mfg
 
Ich glaub das ist bei NV bissel anders mit dem VRAM, zB: bei TDU in 1920x1080 alles MAX hab ich deutlich gemerkt wie der VRAM voll war, bei der XT merk ich davon garnix:hmm:
Ich frage deshalb ob es nicht mit dem VRAM Bug zusammen hängen kann von NV?
Aber das betrift ja nur GTS Karten so wie ich gelesen hab, oder auch GTX ??
Mhhh, ich werd mal in PC Laden gehen und ne zweite Festplatte kaufen und XP mal aufspielen da geht ja der RT:bigok:

PS: DIRT auf 1680x1050 alles ULTRA 4x AA 16xAF habe ich aber auch so 35 FPS, für mich zu wenig.
Aber auf HIGH sind es über 50 FPS, zu Ultra sieht man trotzdem kein unterschied wie ich finde
 
Zuletzt bearbeitet:
Die billigste XT 512MB kostet immo ca 310 euro ,
Die billigste XT 1024MB immo ca 400 euro .

Wobei es momentan noch keine performence-unterschied zwischen den beiden versionen gibt.

Ich würd mich fragen für wie lange ich ca die karte behalten würde , auf längere dauer sind 1024MB Speicher sicher besser aber bis dahin gibts wieder viel bessere karten , von daher rate ich zu ner 512MB variante :)

Zur zeit reizt ja kaum ein spiel 512MB aus , es sei den man spielt auf über 1680X1050.

VRam Auslastung hat nicht zwingend was mit der Auflösung zu tun...
Aber ich sage auch 512MB reichen imho total aus.
Es kommt halt aufs Game an, wie stark sich das bemerkbar macht, wenn der VRam ausgeht... In manchen Games nervt das Nachladen total, in anderen wiederum merkt man gar nix von, bzw. wird es geschickt verdeckt.
 
Kann mir mal einer sagen wie ich unter Vista Home premium 64bit das AMD GPU Clock tool zum laufen bekomme?
 
THX, habe Vista erst seit ner Stunde drauf und noch nicht so vertraut damit :shot:
 
Ich habe ja meinen E6600 auf 2.77Ghz laufen aufgrund des weniger übertaktungsfreudigen Mainboards. Limitiert das die Graka stark?
 
Neja in 3DMark06 limitiert es schon, aber wenn du vorzugsweise mit AA und AF zockst, dann limitiert in nahezu jedem Fall die Graka sprich die CPU reicht aus ;)
 
Eher schade um die sich langweilende CPU ;)

Hab selbst mal einige Versuche mit der GTS gemacht von 2,8 bis 3,4 Ghz... abgesehen von den CPU Punkten bei 3DMark, die natürlich ansteigen, holt man da nix mehr raus.
Mit dem Wort limitieren werden da immer falsche Vorstellungen verbreitet, hab das zuerst auch falsch gedacht ;)
 
Neja also die HD2900XT brachte bei 3DMark06 bei SM2 und SM3 Tests mit meinem beiden CPUs @ 2,66GHz ne Ecke weniger Punkte als jetzt mit 3GHz... Sprich 3DMark ist CPU Limitiert und das nicht nur beim CPU Test.

Für den normalen Betrieb ist es aber nicht relevant, denn dort limitiert die CPU nur in extrem Situationen
 
Eher schade um die sich langweilende CPU ;)

Hab selbst mal einige Versuche mit der GTS gemacht von 2,8 bis 3,4 Ghz... abgesehen von den CPU Punkten bei 3DMark, die natürlich ansteigen, holt man da nix mehr raus.
Mit dem Wort limitieren werden da immer falsche Vorstellungen verbreitet, hab das zuerst auch falsch gedacht ;)

Stimmt, das merkt man nur bei 800x600 aber ob man 190FPS oder 220FPS ist dabei vollig egal.
Bei gänigen Auflösungen um 1680x1050 Limitiert die GRAKA ;)
 
Stimmt, das merkt man nur bei 800x600 aber ob man 190FPS oder 220FPS ist dabei vollig egal.
Bei gänigen Auflösungen um 1680x1050 Limitiert die GRAKA ;)

Dann mußt du aber auch hinschreiben das nicht alle spiele nur Graka limitiert sind, ich denke so an SupremeC. und Lost Planet, da wird die Graka es dir danken wenn du ne starke CPU hast.....


Gruß
Martin
 
Dann mußt du aber auch hinschreiben das nicht alle spiele nur Graka limitiert sind, ich denke so an SupremeC. und Lost Planet, da wird die Graka es dir danken wenn du ne starke CPU hast.....


Gruß
Martin

richtig, denn CPU Limitierung ist nicht gleich CPU Limitierung....

1) Fall CPU Leistung reicht nicht aus, um die Kalkulationen für die Scene durchzuführen => Restleistung reicht nicht aus, um die GPU zu versorgen => fps niveau auf low niveau bzw lokale Einbrüche

Bsp.: extrem viele Spiele im multiplayer

2) Fall CPU Leistung reicht für die Kalkulation der Scene aus => Restleistung ist vorhanden, jedoch nicht genug, um die GPU zu versorgen => fps Einbruch auf average niveau

Bsp.: viele Effekte, viele Modelle, schlechter Code, Physik Berechnung...

Fall 2 schwer von GPU Limitierung zu unterscheiden.

Generelles Phenomen: GPU Leistung(auch wenn GPU limitiert) skaliert noch mit dem FSB(Obwohl Prozessor völlig ausreichend) bis zu einem gewissen Maß.

r600 und G80 CPU Limitierung nicht vergleichbar, da unterschiedliche Architektur=> andere Prioritäten bei der Abarbeitung, anderes Splitting.
 
das gleich Problem habe ich bei meiner 2900XT auch, bei den beiden GTX kann ich es jedoch beliebig einstellen...:hmm:

Stellt mal auf den Moni auf 60hz, dann könnt ihr andere Einstellungen wählen.....

Gruß
Martin
 
Dann mußt du aber auch hinschreiben das nicht alle spiele nur Graka limitiert sind, ich denke so an SupremeC. und Lost Planet, da wird die Graka es dir danken wenn du ne starke CPU hast.....


Gruß
Martin

Ja , bei einigen Titel stimmt es schon aber es liegt meißt daran das Multicore-Cpu´s besser genutzt werden als ein DC, merkt man ja auch bei CMD ;)
 
Ich hab jetzt mit dem Swiftech die Grenzen meiner Karte nochmal neu ausgelotet. Statt eher mittelmäßigen 830MHz sind nun immerhin 880MHz drin.
Es liegen dabei wie gehabt 1,2V an. (Wieso ist denn das Wort "b e t r u g" gesperrt? Also: ... die Spannung b e t r u g... Wer hat sich denn diesen Blödsinn ausgedacht!
Es könnte doch auch sein, dass man auch mal gerne über Betrügereien von irgendwelchen zwielichtigen Typen schreiben möchte....)
Eine kühle Karte hilft also, allerdings werden die Spannungswandler bis zu 81° heiss.
 
Zuletzt bearbeitet:
Wieso ist denn das Wort "b e t r u g" gesperrt?


hehe, naja liegt eventuell daran, dass viele des Imperfekts nicht mächtig sind und dann eher auf das Perfekt zurückgreifen mit "hat betragen" oder auch einfach "war" :)

aber deine 880 sind schon beachtlich, bekommst du die auch mit 1,15V stable? dürfte auch die Spawas etwas kühler halten...
 
@home700
Müsste ich ausprobieren, hab mit dem Rivatuner übertaktet, da kann man ja, soweit ich weiss, nicht die Spannung einstellen.
Bei 890MHz ist der Rechner komplett eingefroren und hat meine T-Balancer Software zerschossen, daher hab ich gewisse Zweifel, dass 1,15V für 880MHz ausreichen.
Da ich die Karte aber sowieso lieber bei 850MHz betreibe, könnte die geringere Spannung ausreichen.
Werde es mal mit geeigneter Software gegenchecken, mit ATI-Tools ging das ja, oder?

@jackx999
Hab ich schon gemacht.
Seitdem mir mal bei einer 6800GT ein Spannungswandler abgeraucht ist (Da waren die Wandler sogar in die Wakü eingebunden!), setze ich immer einen geregelten 92er unter den hinteren Teil der Karte.
Das hilft schon, aber die hohen Temps bekomme ich bei der 2900 trotzdem.
Eigentlich ist das auch gar nicht so kritisch, solche Wandler sind in der Regel für sehr hohe Betriebstemperaturen ausgelegt.
 
Zuletzt bearbeitet:
moin,

hab seit heute auch die 2900XT! mhh, seh ich das richtig das ich erst wieder zugriff auf den overdrive vom catalyst control center habe, wenn ich ein 8pin+6pin pcie stecker benutze? Immo hab ich noch 2x 6pol pin verwendet! Wollte die temperatur überprüfen und diese wird über diesen overdrive ja mit angezeigt! In Everest werden mir auch keine temps angezeigt! Ja und 3DMark06 funzt nicht mehr (keine Rückmeldung)!:-[
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh