X1900 (R580) *Sammelthread 1.3 *

Status
Für weitere Antworten geschlossen.
jpr schrieb:
@Tommy_Hewitt

sollte man nicht schon den 6.7 nehmen?

Gruß,

jpr

Also der 6.7er hat kaum Verbesserungen....und diese sind nur bei CF......

Mit dem 6.6 Chuckpatch hat man halt noch ein paar extras wie HDR+AA etc.....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Tommy_Hewitt schrieb:
Also der 6.7er hat kaum Verbesserungen....und diese sind nur bei CF......

Ja, hab ich schon im 3DC gelesen. So zufrieden waren die da nicht ;) Aber ich nahm an, der Chunkpatch wär nun mit drin.

Tommy_Hewitt schrieb:
Mit dem 6.6 Chuckpatch hat man halt noch ein paar extras wie HDR+AA etc.....

Ich dachte immer das gilt nur für Oblivion, mit dem Chunkpatch? Bei anderen Spielen läuft es doch mit den normalen oder etwa nicht? :hmm: Ich hatte bisher nur Bloom auf meiner X800 XT, da hat mich das nicht betroffen und ich hab mir keine Gedanken gemacht. Einfach Treiber und CP und gut war ;)

Gruß,

jpr
 
jpr schrieb:
Ja, hab ich schon im 3DC gelesen. So zufrieden waren die da nicht ;) Aber ich nahm an, der Chunkpatch wär nun mit drin.

Also das da der Chuckpatch schon drin ist glaub ich nicht. Wie gesagt, der 6.7er bringt nur was, wenn man CF hat......

jpr schrieb:
Ich dachte immer das gilt nur für Oblivion, mit dem Chunkpatch?

Richtig gedacht......;)
 
jpr schrieb:
puh, hatte schon schlimme Befürchtungen ;) Es liegt als doch mehr oder weniger an Buglivon.

Nein....das liegt nicht nur an Buglivion.......das liegt daran das offiziel gar kein HDR+AA geht.....bei Nvidia isses ja wirklich so, aber ATi kann das......eigendlich gibt es aktuell nur Oblivion wo "richtiges" HDR mit AA kombinieren kann.......und halt in Far Cry (aber nur mit vielen Bugs)......
 
Tommy_Hewitt schrieb:
Nein....das liegt nicht nur an Buglivion.......das liegt daran das offiziel gar kein HDR+AA geht.....bei Nvidia isses ja wirklich so, aber ATi kann das......eigendlich gibt es aktuell nur Oblivion wo "richtiges" HDR mit AA kombinieren kann.......und halt in Far Cry (aber nur mit vielen Bugs)......

:o Das war mir neu. Das es Unterschiede beim HDR gibt wusste ich, aber leider nicht genau welches Spiel es nun in welchem Umfang unterstützt. Danke für die Erklärung. Da muss ich mich nochmal schlau machen. Bisher kenn ich wie gesagt nur den Bloomeffekt aus HL² und Oblivion von meiner X800 XT.

Gruß,

jpr
 
Ja, es gibst verschiedenes HDR....eins mit 8bit und dann mit 16bit etc.....

Das 8bit HDR kommt z. B. bei HL2 EP1 zum einsatz (glaub ich halt :fresse:) und damit isses möglich HDR+AA sowohl auf Nvidia als auch auf ATi darzustellen.

Oblivion hat "richtiges" HDR mit 16 oder mehr oder was weis ich wieviel bit und damit isses nur auf ATi Kartn möglich HDR+AA darzustellen.

Bloom is dann wieder was anderes.....aber was genau weis ich jetzt nicht......
 
Also ich hab mal Buglivion mit 6xAA und Bloom getestet. Sieht wesentlich besser aus als ohne AA. Auf HDR kann ich zur Not verzichten, auf AA nicht.

Hab gerade mal die Praxistauglichkeit der Wärmeleitpads vs WLP gemacht.
Also Karte raus, den Kühler gelöst und ein kleiner Ruck, runter war er :bigok: .
Also hat es mit der WLP gefunzt
bilderfroi003iu0.jpg
 
derMeister schrieb:
Also ich hab mal Buglivion mit 6xAA und Bloom getestet. Sieht wesentlich besser aus als ohne AA. Auf HDR kann ich zur Not verzichten, auf AA nicht.

Du kannst ja mit ner X1900 und dem Chucktreiber richtiges HDR und AA darstellen.....würd ich dir zu raten, sieht dann wesentlich besser aus als nur mit Bloom
 
Tommy_Hewitt schrieb:
Ja, es gibst verschiedenes HDR....eins mit 8bit und dann mit 16bit etc.....

Das 8bit HDR kommt z. B. bei HL2 EP1 zum einsatz (glaub ich halt :fresse:) und damit isses möglich HDR+AA sowohl auf Nvidia als auch auf ATi darzustellen.

Oblivion hat "richtiges" HDR mit 16 oder mehr oder was weis ich wieviel bit und damit isses nur auf ATi Kartn möglich HDR+AA darzustellen.

Bloom is dann wieder was anderes.....aber was genau weis ich jetzt nicht......

Irgendwer wollte mir mal weiß machen, dass es bei der Source-Engine 12bit HDR ist. Ich bin eigentlich auch von 8bit ausgegangen.
Und Oblivion hat halt 16bit HDR. Da hast du schon ganz Recht. Bei mir hat der Chuckalyst nur leider nicht funktioniert, hätte schon fast die Karte aus dem Fenster geworfen :shot:

Bloom ist übrigens auch 8bit HDR. Und das können eben alle Karten ab SM2 darstellen :)

MfG Baphomet
 
Definition von High Dynamic Range

24 dB für herkömmliches lineares RGB: Das ist, wie schon gesagt, für viele Sachen zu wenig. Für Medium Dynamic Range sollte es schon das Doppelte sein, also 48 dB. Für High Dynamic Range dann wiederum das Doppelte, demnach 96 dB.

FX16, also 16 Bit als Festkomma, englisch Fixpoint (oder Integer) ist demnach nur Medium Dynamic Range, MDR. Wie sieht es bei FP16 aus, wobei FP für Floatingpoint (Gleitkomma) steht? Das hängt davon ab, wie das Format implementiert ist. Die DirectX-Spezifikation verlangt folgenden Aufbau: 1 Bit Vorzeichen, 5 Bit Exponent, 10 Bit normalisierte Mantisse. Die Mantisse kann im Extremfall durchweg Nullen enthalten, oder durchweg Einsen. Ihr Wert beträgt demnach 1,0 oder (gerundet) 1,999. Der 5-Bit-Exponent kann 25=32 Werte darstellen, wovon aber zwei Werte für Spezialfälle reserviert sind (nämlich Null und Inf/NaN). Der kleinste Wert ist 1,0 multipliziert mit dem kleinsten Exponenten, der größte Wert ist 1,999 multipliziert mit einem Exponenten, der 230 mal größer ist. Runden wir die größte darstellbare Mantisse 1,999 auf 2, haben wir eine Dynamik von insgesamt 231=93 dB. Für HDR-Farbe haben wir soeben aber 96 dB definiert.

FP16 laut DirectX-Spezifikation ist für HDR-Farbe also nicht ausreichend.


der ganze artikel: http://www.3dcenter.de/artikel/2006/01-01_c.php



welche programmiersprache könnte denn mit 12bit umgehen?


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Beschleunigen schrieb:
welche programmiersprache könnte denn mit 12bit umgehen?
tobi

Japp, das habe ich mich auch gefragt. Hat irgendwer hier aus dem Forum behauptet, ich wollte es auch nicht glauben.
Deswegen habe ich es da ja auch so provokant hingeschrieben, ich dachte mir jemand der es genau weiß, wird schon posten :xmas:

MfG Baphomet
 
Der Shop hat ja sehr wiedersprüchliche Bewertungen.....ich würd's lassen.....
 
Tommy_Hewitt schrieb:
Genau vor dem Prob stand ich auch......die XTX war meine erste ATi.....

1) Treiber nimmst am besten den 6.6 Chuck-Treiber + WDM Treiber von der ATi Page....dazu noch das Catalyst Control Center (CCC) in Deutsch.

2) OCen kannst direkt im CCC bis 690/800....mehr brauchst eh nicht.....

3) A.I. kannst im CCC einstellen

4) Auch im Treiber bzw. CCC

Danke für die Antwort.

Habe mir von der ATI-Page einen Treiber geladen aber was ist der Unterschied zwischen Chucktreiber und Catalyst? Ich steh jetzt wirklich auf dem Schlauch. Ich könnte mich mit meinen 29 Jahren über mein eigenes Fanboy-gemache richtig aufregen, ich muß nun so viele Informationen rein pfeifen, steh wirklich ein bissel "Blöd" da.

Was meint dieses A.I. Setting? Bedeutet ausgesprochen?

Und noch eine kleine Frage, was ist mit den Temperaturen. Ich lese oft, das die ATIs heizen wie Sau und knapp 95 Grad warm werden. Die goldene Regel sagt doch aber GPUs niemals wärmer als 75 Grad!? Wenn mir das noch jemand erklären könnte währe ich sehr sehr dankbar ;)

EDIT: Muß man änderungen in den Settings parallel im CCC und im Treiber machen?
 
meine Frage.. funzt Crossfire jetzt wirklich ohen Masterkarte beim R580 ?

Wenn ja, auch auf Intel Chipsätzen (975x) =

Kati
 
JACK RABBITz schrieb:
Danke für die Antwort.

Habe mir von der ATI-Page einen Treiber geladen aber was ist der Unterschied zwischen Chucktreiber und Catalyst? Ich steh jetzt wirklich auf dem Schlauch. Ich könnte mich mit meinen 29 Jahren über mein eigenes Fanboy-gemache richtig aufregen, ich muß nun so viele Informationen rein pfeifen, steh wirklich ein bissel "Blöd" da.

Was meint dieses A.I. Setting? Bedeutet ausgesprochen?

Und noch eine kleine Frage, was ist mit den Temperaturen. Ich lese oft, das die ATIs heizen wie Sau und knapp 95 Grad warm werden. Die goldene Regel sagt doch aber GPUs niemals wärmer als 75 Grad!? Wenn mir das noch jemand erklären könnte währe ich sehr sehr dankbar ;)

EDIT: Muß man änderungen in den Settings parallel im CCC und im Treiber machen?

Der Chucktreiber is ein, von nem ATi Mitarbeiter (Chuck ist sein Name), modifizierter Catalyst der ein paar Verbesserungen beinhaltet......

A.I. is ein Bildoptimierungsdingsbums.....was es heißt weis ich selbst nicht.....

Also meine ATI hat des öfteren die 90° erreicht und läuft immer noch.......also solltest du dir keine Sorgen machen......unter 75° hälst du sie nur mit Wakü.......

Änderungen brauchst nur im CCC machen........
 
derMeister schrieb:
Nein noch nicht, nur bis zum R520.



Brauchst dafür nen Chipsatz ab RD580, wegen 2x16 Lanes. K.a. ob die Intel sowas überhaupt unterstützen, was ich arg bezweifele.

der 975x hat Crossfire Support.

Mein Board hat auch 2x x16 Asus P5WDH..

schade eigentlich.. dann kein Crossfire :)
 
Jungs kruze Frage, hat jemand den Link zum Thread wegem dem fehlendem AA bei x1900 karten? Finde den nich mehr.
 
Welchen meinst OC-Thread DU?

Habe auch noch eine Frage zum OC, woran erkenne ich dann im CCC, daß ich den 3D Takt verändere und nicht den 2D Takt?
 
JACK RABBITz schrieb:
Welchen meinst OC-Thread DU?

Habe auch noch eine Frage zum OC, woran erkenne ich dann im CCC, daß ich den 3D Takt verändere und nicht den 2D Takt?

Wenn du den Takt im CCC höher stellst, dann ändert sich nur der 3D Takt
 
So Leute, überraschender Weise habe ich heute schon meine X1900XT von Sapphire erhalten.

Habe mal den aktuellsten Treiber (6.7) drauf getan und hinterher das Catalyst Control Center.

Nun ergeben sich nerviger Weise schon wieder neue Fragen, wo ich hoffe, daß Ihr mir diese auch geduldig beantwortet *BITTE*

1. Im Aquamark (95000 gegen 92000) und im Doom3 (125,7FPS gegen 110FPS) Benchmark ist die Karte langsamer, im 3DMark06 (4469 gegen 4632) aber schneller, wie kommt das (Gegen die alten 7900GT)?

Karte ist geoced auf: 650 und 750 im Moment. Bei 690 zu 800 was hier jemand schrieb, gab es ein buntes Bild und dann Freez (Sah fast aus wie der Fehler mit der 7900GT).

Die Karte sollte doch eigentlich viel schneller sein als eine 7900GT!?
Aber Bildqualität ist auf jeden Fall 100% besser als NVidia Karten. Sieht nicht so verwaschen aus und Flimmert auch nicht.

2. Finde zum Thema VSYNC nix richtiges.
Hier mal meine Catalyst Settings:

3D
Standardeinstellungen: Häkchen bei Benutzerdefiniert
Anti Aliasing: Soll Anwendung entscheiden
Adaptives Anti Aliasing: Regler auf Qualität
Anisotropische Filterung: Häkchen bei Soll Anwendung entscheiden und AF in höchster Qualität
Catalyst A.I.: Kein Häkchen und Einstellung und Regler auf Standard
MipMap Detailebene: ganz Rechts Qualität
Alle Einstellungen: Hier gibt es eine Regler, der sonst separat nicht auftaucht: "Auf vertikalen Bildaufbau warten" Ist das VSync? abe ich auf Leistung ganz links gestellt
API: Hier ist nur ein Haken bei DXT oben, sonst nix

Weiter unten VPU Recover: Aktiviert, Fehlerbericht aus

Overdrive: 655 und 756 bei angefordert.


So, habe mal testweise einige Settings auf Leistung gestellt, bin raus aus dem CC, habe es als geschlossen, Doom3 Benchmark wieder laufen lassen, selbes Ergebniss.

Dann kurz Prey gespielt, da kommt es mir so vor, daß in dem einen Abschnitt, wo man mit dem Glasfahrstuhl ankommt (man sitzt parallel in diesem Fluggerät) und sich dieser Galskasten dann öffnet, mein runter oder hoch schauen, immer kurz Streifen in diesen transparenten Wabentexturen befinden und dann verschwinden!?

Naja, wie gesagt Bildschärfe ist um einiges besser, das einzige was mich nervös macht, wo die Mehrleistung steckt, die die Karte definitiv mehr als die 7900GT haben soll.

Andere Benches oder Games habe ich noch icht getestet.


EDIT;: Muß man den zweiten Ausgang irgendwie deaktivieren? Kommt mir alles etwas spanisch vor. Achso Windows ist brühwarm neu installiert.
 
Zuletzt bearbeitet:
JACK RABBITz schrieb:
[...]
1. Im Aquamark (95000 gegen 92000) und im Doom3 (125,7FPS gegen 110FPS) Benchmark ist die Karte langsamer, im 3DMark06 (4469 gegen 4632) aber schneller, wie kommt das (Gegen die alten 7900GT)?
[...]


In Aquamark sind die X1900er einfach langsam. Ich habe auch nur 91k Pkt., trotzdem rennt sie wie sau. Doom 3 ist ein OpenGL Spiel, welches auf nV-GPUs grundsätzlich besser läuft. Im 3DMark06 ist sie natürlich schneller, aber auch nicht so viel da ATi ihre Treiber nicht mehr darauf optimieren.

Zur Beruhigung: Vergleich doch mal Oblivion, FEAR oder ähnliches :teufel:
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh