ATI R600 [Spekulations Thread] (Part 3)

Status
Für weitere Antworten geschlossen.
Aber mit finalen Treibern. Das macht schon mal 20-30% aus.

BTW: R600 Retail
r600xtxretailcu2.jpg

Wird eine schöne Karte:p
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@wombat: #6774 Allerdings nicht direkt das Bild sondern der Link dahin.
 
Ich verstehe wirklich nicht , wie User aus den Benchmarks
unabhängig ob Fake oder nicht - eine Nvidia kann einpacken
Theorie herauslesen - tut mir leid - kann ich nichts mit
anfangen.

Eher lese ichs andersherum , 700Mhz GPU beim Topmodell -
512MB bei der eigentlich interesannten XT - 512MB sind
bei solch Leistungsfähigen Karten eher ein Nachteil ,
man braucht sich nur bei aktuellen Games mit AA+AF & HDR
den Speicherverbrauch reinziehen -
schöne Nachladeruckler bei 150FPS - das merkste dann
richtig.

Naja , recht merkwürdig einige Reaktionen - nachdenken
ist wohl bei einigen nicht an der Tagesordnung -

so und nu kloppt auf mir rum :)

Greetz Koyote008

Aha, daß manche User daraus ein ATi kann einpacken ableiten ist dir aber egal. Das übersiehst du. Und 512MB sind genug, wie kommst du plötzlich darauf es wäre ein Nachteil? Es sind 512MB und nicht 256MB!
 
hoffe mal das 6+8 nur bei XTX zum einsatz kommt und die XT 6+6 bekommt von stromanschlüssen :hmm:

aber die benches von FX57 mit werten eines 88GTX systems zu vergleichen finde ich sinnlos, wegen ...

1. ob die seite fake ist oder nicht ist unklar, aber neige zu fake wie level505
2. coretakt etwas mager laut fx57, nur 700Mhz bei der XTX statt 800Mhz+
3. ob das nun ein R600 A13 oder A15 noch ist
4. es gibt nichtmal offizele treiber bzw. ausgereifte

zu punkt 4. kann man auch nur sagen, unausgereifte vs ausgereifte treiber ist doch etwas unfair :fresse:
 
Diese ganzen Spekulationen führen doch sowieso zu nix. Ich erinnere mich noch an den R520 Thread, wo die Leute den Chip geyhped, gleichermaßen gebasht haben, danach ist man immer schlauer.

Die Wahrheit liegt wohl meistens irgendwo dazwischen. Was regt ihr euch über angegliche Benches auf, wartet doch einfach ab und schreibt keinen der beiden führenden Hersteller ab. ATi kann kontern, sie haben das Zeug dazu. Wieviel schneller der R600 letzenendes wird, das wird man sehen. Auch wenn er nur minimal schneller wird, ist das ein Erfolg. Es geht nicht darum wieviel schneller, sondern einfach schneller zu sein.
 
ATI muss nicht nur ein bisschen schneller als der G80 sein, sondern auch noch am besten gleich ziehen mit dem G81 oder bei nahe.
erfolg würde ich es nennen wenn ATI die karte schon etwas früher releast hätte und trozdem noch schneller als der G80 wäre.

über den baldigen konkurenten den G81 ist ja bisher nicht viel bekannt, so gesehen wie über den R600. glaube kaum das ATI nach einen schnellen schachzug mit dem G81 einen refresh in einem bruchteil der zeit auf dem markt wirft.
 
Aha, daß manche User daraus ein ATi kann einpacken ableiten ist dir aber egal. Das übersiehst du. Und 512MB sind genug, wie kommst du plötzlich darauf es wäre ein Nachteil? Es sind 512MB und nicht 256MB!

Jetzt wirste aber nen bissl komisch und unsachlich !

Bist Du nicht der "Wissensmensch ?"

Nimm mal Potente AKTUELLE Games 6xAAA & 16xAF und HDR x16
rein - und benche den Speicherbedarf.

Solche Karte lacht über die Settings , im Regelfall ist Speicherbedarf
nichteinmal Auflösungsabhängig - nimm 1280x1024 und 1600x1200.

ATI-Karten haben bei der letzten Generation - Ringbus mehr Speicher
verschleudert wie Nvidia-Karten - aber egal - macht den Kohl nicht fett,
wie es aktuell aussehen wird steht ja aus.

512MB werden bei hohen AA+AF Werten + HDR limitieren - logischerweise
nicht in FPS sondern Nachladeruckler - Slowdownes genannt - und
bei Leistungsgranaten fällt das extreme ins Gewicht.

Ich finde für solch starke Karte 512MB ARM um perfekt zu sein :shot:

Greetz Koyote008
 
Die benches sind garantiert ein Fake, der Prozzi sagt doch schon alles aus... da wollte sich nur einer wichtig machen, sonst hätte er ein Beweisbild im eingebauten Zustand gemacht...
 
@cenmocay: War die 9800er Reihe besser oder die FX5 reihe, war die X850XT oder die 6800Ultra besser? ;)
 
@PatLebeau: BTT (9800 > FX5, X850 XT > 6800U)
 
@PatLebeau
die FX serie war ja wohl der größte reinfall von nVidia.
die gF6 war eher ein PR kracker mit SM3.0, aber wirklich genutzt wurde es breit, als schon die gF7 vor der tür stand. was bringt einem HDR(R) wenn man nur low FPS hat :fresse:
meiner meinung nach hat nVidia erst mit dem G80 wieder eine gute graka abgeliefert, oder fast gute.
dafür sprechen die leistung und besonders die bildqualität bzw. der filter.
aber nun :btt:
 
Ahhrrg er hat ja geschrieben die schlechteren Karten -.-.-.-
Sry, dachte da hätte besseren gestanden -.-.-.-
 
@PatLebeau: BTT (9800 > FX5, X850 XT > 6800U)

Jupp nach Leistung ..... ATI-ler diskutierten bisher auch nach BQ

dann also 9800 < FX5 , X850 XT > 6800U :p

Greetz Koyote008
Hinzugefügter Post:
@PatLebeau
die FX serie war ja wohl der größte reinfall von nVidia.
die gF6 war eher ein PR kracker mit SM3.0, aber wirklich genutzt wurde es breit, als schon die gF7 vor der tür stand. was bringt einem HDR(R) wenn man nur low FPS hat :fresse:
meiner meinung nach hat nVidia erst mit dem G80 wieder eine gute graka abgeliefert, oder fast gute.
dafür sprechen die leistung und besonders die bildqualität bzw. der filter.
aber nun :btt:

Die Geforce6 war SLI fähig , und für Enthusiasten
interesannt - und durch SLi war die nutzbare BQ hierdurch
dann besser bei AA als seitens ATI.

Immer das Ganze betrachten :wink:

Greetz Koyote008
 
Zuletzt bearbeitet:
Und die Bildqualli war auch schon bei der 9800 besser als die der FX5 Serie. Also doch 9800>FX5 ;)
 
Und die Bildqualli war auch schon bei der 9800 besser als die der FX5 Serie. Also doch 9800>FX5 ;)

Nö ... das stimmt ned. Seit der Geforce6 inclusive 7 hatte Nvidia
das schlechtere AF.
Bei der Radeon 9xxx hatte ATI mal den Leistungshammer aber
die BQ vergessen .... und weil die Geforce5 ne Tröte war (Leistung)
hatten wir alle eben ne hübsche ATI :drool:

Greetz Koyote008
 
Koyote008 schrieb:
Die Geforce6 war SLI fähig , und für Enthusiasten
interesannt - und durch SLi war die nutzbare BQ hierdurch
dann besser bei AA als seitens ATI.
sry, selten so gelacht.
weisst du wie sich HQ/BQ äußert?
wenn das 2xAA von ATI besser ausschaut als bei nVidia (G80 ausgenommen) 4xAA, so als beispiel.
hab garnicht gewusst das durch SLI bei der gF6 einfach mal die filterqualität über ATIs neveau hinaus steigt ;)
gabs mal nen schönen bildervergleich in den verschiedenen settings bei computerbase mit HL², besonder auf dem bahngleis recht nah am anfang sah man einen nicht gerade kleinen unterschied im BQ, da hilft dir auch kein SLI :fresse: wenn durch den treiber künstlich die filterqualität gesenkt wird :d das sah man bei einem qualitätsvergleich von 9500 vs gF6 oder 7 wars, besonders. hier sah die 9500er um längen besser aus.

zumal nVidia bisher der meinung war, lieber etwas weniger BQ dafür mehr FPS, so das die PR abteilung ein gutes bild abgeben kann :rolleyes:
 
Zuletzt bearbeitet:
Nö ... das stimmt ned. Seit der Geforce6 inclusive 7 hatte Nvidia
das schlechtere AF.
Bei der Radeon 9xxx hatte ATI mal den Leistungshammer aber
die BQ vergessen .... und weil die Geforce5 ne Tröte war (Leistung)
hatten wir alle eben ne hübsche ATI :drool:

*Gähn*

ATi R3X0 vs NV3X. ATi hatte das bessere, schönere AA, nVidia das winkelunabhängige AF. Ich weiß nicht wie du darauf kommst, bei der 9XXX Serie, hätte ATi die BQ vergessen. Die 9700 Pro war die erste Karte, die das AA der Voodoo 5 5500 geschlagen hat, was reine Kantenglättung angeht.

Zum anderen Punkt. Welche DX9 Spiele gab es zu NV3X Zeiten? 2003, kein einziges Spiel, April 2004 kam das erste DX9 Spiel, das war FarCry. Da wurde aber der NV40 schon vorgestellt. Die FX war kein wirklicher Flop. Ich hab FarCry mit ner FX5950U gespielt und konnte es mit einigen Tricks auch gut genug spielen. In DX7/8 Games war die FX der jeweiligen ATi sogar voraus.

Der größte NV Flop war der NV1, nicht der NV30,NV35,NV38 aka FX Series!
 
Zuletzt bearbeitet:
sry, selten so gelacht.
weisst du wie sich HQ/BQ äußert?
wenn das 2xAA von ATI besser ausschaut als bei nVidia (G80 ausgenommen) 4xAA, so als beispiel.
hab garnicht gewusst das durch SLI bei der gF6 einfach mal die filterqualität über ATIs neveau hinaus steigt ;)
gabs mal nen schönen bildervergleich in den verschiedenen settings bei computerbase mit HL², besonder auf dem bahngleis recht nah am anfang sah man einen nicht gerade kleinen unterschied im BQ, da hilft dir auch kein SLI :fresse: wenn durch den treiber künstlich die filterqualität gesenkt wird :d

zumal nVidia bisher der meinung war, lieber etwas weniger BQ dafür mehr FPS, so das die PR abteilung ein gutes bild abgeben kann :rolleyes:


Ich lache da mal über Dich ... und wie SLI hilft bei Nutzbare BQ ..
ausserdem habe ich mich auf AA bezogen.

Oder haste mit Deiner ATI 16x QAA hinbekommen ?

Selbst konnte man die miese AF Quali bei HL2 auch korrigieren im SLI
mit Clamp etc. - Kosename des Tool´s hierfür NHancer.

Nutzbare BQ - eben hohe Settings - und durch SLI spielbar.

Übrigens habe ich ne ATI X1950 im Rechner - und die AA-Quali
ist nichts dickes - selbst bei 6xAAA :p

Leider hatte ich jeden Chip selber ... ausser X18 ... und bevorzuge
ATI vor Nvidia ... aber leider war SLi sehr früh am Start .... demzufolge
war nur ATI bei mir raus ..... eben Leistung und Nutzbare BQ :p

Greetz Koyote008
 
Leute, hier gehts um den R600.
 
*Gähn*

ATi R3X0 vs NV3X. ATi hatte das bessere, schönere AA, nVidia das winkelunabhängige AF. Ich weiß nicht wie du darauf kommst, bei der 9XXX Serie, hätte ATi die BQ vergessen. Die 9700 Pro war die erste Karte, die das AA der Voodoo 5 5500 geschlagen hat, was reine Kantenglättung angeht.

Zum anderen Punkt. Welche DX9 Spiele gab es zu NV3X Zeiten? 2003, kein einziges Spiel, April 2004 kam das erste DX9 Spiel, das war FarCry. Da wurde aber der NV40 schon vorgestellt. Die FX war kein wirklicher Flop. Ich hab FarCry mit ner FX5950U gespielt und konnte es mit einigen Tricks auch gut genug spielen. In DX7/8 Games war die FX der jeweiligen ATi sogar manchmal schneller.

Der größte NV Flop war der NV1, nicht der NV30,NV35,NV38 aka FX Series!

Du hast es gepeilt ... Zwecks AF ... 9xxxx vs. FX5 .... das AA habe ich mal
weggelassen , wurde ja sonst ATI vs. Nvidia auch vergessen :lol:

Du bist wenigstens aufmerksam und gut unterwegs , und meine HL2
SLI Screenshots .... und das machbare - hast Du mir ja bis heute nicht
verziehen :wink:

Gruss
Koyote008
 
naja, es wäre ja schonmal ein highlight gewesen, gleich wie der G80 zu sein, dabei günstiger und nur mit 100W Leistungsaufnahme...

Irgendwie sind mir solche Sachen auch wichtig. Ich hab nämlich keinen Geldscheißer und nur ein 500w Netzteil...

da fällt mir ein. Wo um alles in der Welt bekomme ich diesen 8 Molexstecker her? Da habich nur einen und der hängt aufm Mobo!
 
Wenn man so nen neuen Stecker Standard für Grafikkarten einführt muss ein Adapter der Karte beiliegen ;)
 
Leute, hier gehts um den R600.

Stimmt natürlich :wink:

Das witzige ist , meine Kommentare werden pro Nvidia ausgelegt ,
und ich habe ne ATI im Rechner - und werde wahrscheinlich
einer der wenigen sein die früh ein R600 im Rechner werkeln
lassen - wenn P/L stimmt und vor allem der Treiber was taugt.

:wink:

Muss schon bissl schmunzeln hier .... ATI-ler sind ja richtige
Hackenbeisser :d

Greetz Koyote008
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh