X1800 (R520) *Sammelthread*

Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hayato schrieb:
ATI: Zukünftiger Treiber profitiert von Dual-Core-Prozessoren
Somit zieht ATI wohl nach bei der Strategie von Nvidia. Also siehts noch ganz gut aus, dass ATI beim X1800 einiges an Performance rausholen kann. ;)

:lol:

Auf einer Pressekonferenz gab ATi bekannt, dass die eigenen Grafiktreiber in einigen Monaten Vorteile aus der Verwendung von Dual-Core-Prozessoren ziehen werden, so dass die Performance in Spielen um bis zu 30 Prozent gesteigert werden kann.

http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/oktober/dual-core_grafikleistung/


Soll ich nochwas schreiben !? Ich denke erspare ich mir :o

Greetz Koyote008
 
bei nV haben sie auch rekordwerde versprochen.
also schreibe nicht so ein quark als hätte nur ATI auch sowas verlauten lassen.
*kopfschüttel*

außerdem braucht gutes zeit :fresse:
 
Koyote008 schrieb:
... macht sich aber erst richtig bei SLI bemerkbar , da ein Core pro Grafikkarte zugeordnet wird.

Wo hasdu die Info her? So wie ich es verstanden habe bringt die Treiberoptimierung eher bei "Nicht-SLI"-Systemen was, denn erst wenn die GPU ausgelastet ist werden Aufgaben der CPU zugewiesen.

"Allerdings hat NVIDIA offenbar vor einiger Zeit erklärt, dass Grafikkarten-Treiber eine Art Load-Balancing für das Vertex Processing betreiben können.

Simpler formuliert: Die Grafikkarte könnte, wenn die GPU ausgelastet ist, teilweise Aufgaben an die CPU abgeben. Diese würden dann in separaten Threads und/oder parallel abgearbeitet werden können. Es soll aber noch weitere, nicht genannte, Möglichkeiten zur Optimierung der Treiber auf Dual-Core-CPUs geben."
 
Zuletzt bearbeitet:
Bildqualitätsvergleichtest:G70-R520
http://www.ixbt.com/video2/r520-part4-a.shtml#p1

Ati hat eindeutig die bessere qualität.Bei Dumm 3 sieht manns auf einer 7800 wird nicht eine verdammte rille richtig langgezogen überall flackerts beim gitter(zacken).....Auf der Ati siehts so aus wie es aussehen muss immerhin ist aa dafür zu ständig.T.t
 
Zuletzt bearbeitet:
Dominator18 schrieb:
Bildqualitätsvergleichtest:G70-R520
http://www.ixbt.com/video2/r520-part4-a.shtml#p1

Ati hat eindeutig die bessere qualität.Bei Dumm 3 sieht manns auf einer 7800 wird nicht eine verdammte rille richtig langgezogen überall flackerts beim gitter(zacken).....Auf der Ati siehts so aus wie es aussehen muss immerhin ist aa dafür zu ständig.T.t

War doch schon seit der G5FX so, dass NV mehr pfuscht als ATI bei der Bildquali :rolleyes:

Naja Leute kaufen NV Karten immernoch. Wenn ich 500€ für ne Grafikkarte ausgebe dann möchte ich keine 1000FPS sondern gute Bildquali!

edit: Irgendwie sieht NV 16x genauso aus wie 8x.

edit2: Vergleicht mal bitte, diese beiden Bilder:

http://www.ixbt.com/video2/images/r520/fear_rx1800_aa4x_af16x.png
http://www.ixbt.com/video2/images/r520/fear_gf7800_aa4x_af16x.png
 
Zuletzt bearbeitet:
403: Forbidden...
 
Ein paar Smiles weniger hättens auch getan. :wink:

Ach ja, kommt wohl aufn Benutzer an, was Quali angeht. Im Eifer des Gefechts merkt man oft manche Details ohne Bildschärfe gar nicht so sehr.
 
wahrscheinlich ist das sowieso nur ne sache der treiber..
gibts denn auch solche beispiele von spielen die es schon gibt?
 
Eine Demo ist aber kein fertiges spiel und da ändert sich meistens noch einiges bis zum final.
 
BoSS schrieb:
War doch schon seit der G5FX so, dass NV mehr pfuscht als ATI bei der Bildquali :rolleyes:

Naja Leute kaufen NV Karten immernoch. Wenn ich 500€ für ne Grafikkarte ausgebe dann möchte ich keine 1000FPS sondern gute Bildquali!

edit: Irgendwie sieht NV 16x genauso aus wie 8x.

edit2: Vergleicht mal bitte, diese beiden Bilder:

http://www.ixbt.com/video2/images/r520/fear_rx1800_aa4x_af16x.png
http://www.ixbt.com/video2/images/r520/fear_gf7800_aa4x_af16x.png


bei der Fx5800 serie war die Bild Qualität ja wohl hammer im gegensatz zur Geforce 6 und 7 also bitte ;)

brauche dringend ratschläge zur ner neuen grafik karte bitte mal auf den link in meiner signatur klicken thx :)
 
So, aus is!

Ich habe mir jetzt für die nächsten Wochen nochmal eine X800GTO2 bestellt.
Ich hoffe, die Karte gut nach oben prügeln zu können!

Eigentlich hatte ich meine X800XL verkauft, um auf den R520/G70 umzusteigen.
Tja, und nach all dem hin und her haben mich folgende Dinge zu diesem Schritt bewogen:

- Bild"qualität" bei nvidias G70 (siehe 3dcenter.de)
- X1800XL ist zu TEUER
- X1800XL hat u.U. eine Übertaktungssperre
- X1800XT nicht verfügbar vor November/Dezember

Jetzt schaue ich mir das alles in aller Ruhe an, wie sich das mit ATIs Verfügbarkeit und Preisen entwickelt. Die 1800XL ist raus. Die G70 auch. Die X1800XT rules, aber Papiertiger laufen nicht mit PCIe.

Viel Spaß noch beim diskutieren. Ich verfolge den Thread weiter.
 
XL hat ne OC-sperre o0 ?
 
Angeblich geht die nich über 500mhz. frag mich nur wer des verbreitet hat, wenn keine karten verfügbar sind :fresse:
 
Jedi schrieb:
- X1800XL hat u.U. eine Übertaktungssperre
Sorry verfolge den Thread nicht so ausführlich.
Ist es echt möglich dass die X1800XL eine Übertacktungssperre haben könnte?? :eek:
Wow das ist/wäre ja ein shice :hmm:

Edit: ups sorry, war mal wieder voll langsamm :fresse:
 
k, danke für die Antworten, d.h. ne XL ist also nicht zugebrauchen (zumindest für ~75% der User hier).
 
Es geht das Gerücht um, daß die ersten XLs, die in den Handel kommen noch auf einer früheren Revision des Chips beruhen, die noch nicht die ganz hohen Taktraten wie die XT (und die später produzierten XLs) verträgt. Deswegen werden die XLs, die in den nächsten 1-2 Monaten zu kaufen sind, kaum Übertaktpotential haben. Wenn dann alle alten Cores so nach 2 Monaten aberkauft sind, werden auch die XLs die gleiche Revision aufweisen wie der XT, und sollten somit einiges an Übertaktpotential bieten.

Nachdem in der neuen Variante wohl alle Design-Probleme gefixt sind, wird das wohl eine der am stärksten übertaktbaren GPUs überhaupt sein.

VL125 schrieb:
k, danke für die Antworten, d.h. ne XL ist also nicht zugebrauchen (zumindest für ~75% der User hier).

Naja, sie leistet halt, was auf der Verpackung drauf steht - ein Anrecht auf "Übertaktung" gibt es leider nirgends (genausowenig wie es Garantie drauf gibt). Das sowas der Reputation in der "Szene" schadet ist eine andere Sache.
 
Zuletzt bearbeitet:
OliverM84 schrieb:
Es soll ne Revison geben die sich nur bis 500MHZ Chiptakt takten lässt!
Wird aber sicher geändert!
Momentan kann man darüber nur spekulieren. Aber genau das habe ich auch gelesen.
Ohne die Aussicht, die XL nicht annähernd auf XT Niveau zu clocken, kann die im Regal verschimmeln. Ob die das ändern und mit welcher Revision, das teste ich bei so einer teuren Karte bestimmt nicht aus. Alles weitere wird die Zeit zeigen.
 
Koyote008 schrieb:
Soll ich nochwas schreiben !? Ich denke erspare ich mir

Nein - erspar es uns bitte. Deine inhaltlich blutarmen und othographisch zueilen etwas avantgardistischen Sticheleien haben einzig den Effekt, diesen Thread unuebersichtlich zu machen.

Kopfschuettelnde Gruesse vom

JePe
 
Jedi schrieb:
Momentan kann man darüber nur spekulieren. Aber genau das habe ich auch gelesen.

Ähem, soweit ich das gelesen habe, ist da wenig Spekulation dabei, sondern die Fakten liegen ziemlich klar auf dem Tisch, nachzulesen hier:

http://www.theinquirer.net/?article=26710

Kurzzusammenfassung der Fakten:

Jetzt erhältliche X1800XL und X1800XT (sowie spätere XL) haben nicht den gleichen Core.

Jetzt erhältliche XL-Karten haben noch eine ältere Revision des Chips, die wegen des "Two-metal-layer-bugs" nicht mehr als 500 Mhz Takt hergibt.

Der Bug ist inzwischen behoben, die neu Revision (erkennbar am 0,7mm² größeren Die) taktet mit "experimentellen" Kühlungen mehr im Labor schon über 800 Mhz.

Alle XT und alle Crossfire-Karten haben den neuen Core, weswegen sie auch erst mit einigen Wochen Verzögerung auf den Markt kommen, da die Produktion des neuen Cores erst später anlief, als schon etliche (alte) X1800 produziert waren.

Die XL wird ebenfalls den neuen Core bekommen, aber erst NACHDEM die alte Revision abverkauft ist.

So, sind jetzt endlich alle Unklarheiten beseitigt? :haha:

Ohne die Aussicht, die XL nicht annähernd auf XT Niveau zu clocken, kann die im Regal verschimmeln. Ob die das ändern und mit welcher Revision, das teste ich bei so einer teuren Karte bestimmt nicht aus. Alles weitere wird die Zeit zeigen.

Das ist das Dilemma: Die alte Revision hat wohl so ziemlich NULL Potential zum overclocken, die neue Revision verspricht dagegen, DIE Overclocker-Karte schlechthin zu werden. Fakt ist auch hier: Wenn Du auf die zweite Variante hoffst, darfst Du Dir während der nächsten Wochen und Monate wohl definitv keine X1800XL zulegen. Aber ich denke mal, die Produktionsumstellung auf den neuen Core wird schon rechtzeitig in den entsprechenden Medien diskutiert. Der "Inquirer" schreibt zwar auch viel Mist, aber gerade was solche Notizen betrifft, ist das eine ziemlich gute Quelle.
 
Zuletzt bearbeitet:
Man müsste die neue Revision aber auch anhand irgendeiner Beschriftung auf dem DIE selbst erkennen. Dann kann man sich wenigstens sicher sein. DIE Größe hin oder her.
 
Dominator18 schrieb:
Bildqualitätsvergleichtest:G70-R520
http://www.ixbt.com/video2/r520-part4-a.shtml#p1

Ati hat eindeutig die bessere qualität.Bei Dumm 3 sieht manns auf einer 7800 wird nicht eine verdammte rille richtig langgezogen überall flackerts beim gitter(zacken).....Auf der Ati siehts so aus wie es aussehen muss immerhin ist aa dafür zu ständig.T.t


Und Du glaubst Du hast die grosse Ahnung , indem Du von irgendwelchen Sites , irgendwelche Beispiele abkopierst , und glaubst das noch !?

Geforce5 hatte das BESTE Bild seinerzeit , nur mal am Rande.

Geforce6 war nicht der Bringer.

Die Geforce7 haut es eben durch Tansparenz-AA wieder raus.

Und wer seit der Geforce6 nicht auf HQ stellt , nunja.

Der R520 hat die bessre BQ , aber marginal , und der Rest der immensen Nachteile wiegen das nicht annähernd auf , selbst für BQ Enthusiasten.

Du disqualifizierst Dich durch unsinnige Aussagen , und Du glaubst doch nicht im Ernst das Du in einem Test überhaupt rausfinden könntest um welche Karte es sich handelt. :fresse:

Gruss Koyote008
 
Koyote008 schrieb:
Du disqualifizierst Dich durch unsinnige Aussagen , und Du glaubst doch nicht im Ernst das Du in einem Test überhaupt rausfinden könntest um welche Karte es sich handelt. :fresse:

Gruss Koyote008


Einmal das ... dann haben mer noch nen 3DMark link inner sig und die verunglimpfung von Doom 3 ...



Tjo, jetzt wo immernoch nix an x1800 zu kaufen ist (in den USA allerdings schon) und die Preise für 7800er sich in den letzten tagen nicht großartig bewegt haben hol ich mir ne gute alte und gebrauchte 6800GT ...

Nen weiterer grund gegen die 7800er ist das nVidia vielleicht scho diesen monat / vor der X1800XT seine 512er Version vorstellt ... auch gab es gerüchte vonwegen 1.26ns RAMs @ 7800 ...

Dat alles ist so schwammig das ich lieber 220 statt 350 hinlege, da is der wertverlust wenigstens net so groß ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh