ATi R600/RV6xx *Infothread* (Part 3)

Status
Für weitere Antworten geschlossen.
So, es gibt die ersten Benches und es hat sich noch immer nichts am gesammt bild geänderet. Was mir aber aufgefallen ist , das die Rohleistung doch meist nicht schlecht ist und sie sich sogar oft vor die 8800GTX setzen kann.
Ich habe nun die hoffnung, das amd es schaft richtige treiber zu releasen und wir bald die möglichkeiten des 512bit Speicher interfaces erleben können.

Und auch wenn es nicht sooo rosig aussieht, finde ich den R600 immer interessanter. Denn eins ist klar... es kann ja nur besser werden.

Lieste der erforderlichen besserungen:

- Nahezu winkelunabhänige AF
- drastische AA/AF performance verbesserung!
- senkung des Idle verbrauches
- *schwarzes PCB* :fresse:


was mich wundert...... im CB test sieht die DX10 Performance auch eher.... mau aus ;)

Domi, was sagst du nun?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das Review ist Murks:
NVIDIA HQ gegen ATi AI Standard :wall: samt veralteter Forceware!

@fdsonne
Lies mal das Fazit von CB, der neue Treiber ändert nichts an der schlechten MSAA-Perfomance!
Desweiteren bin ich gerade auch von der im Vorfeld total gehypten DX10 Perfomance maßlos enttäuscht, auch dort nur GTS/640 Leistung.
"A perfect 10" sieht für mich anders aus. Naja, A/A müssen es wissen!

MfG :cool:

stimmt, erst wurde immer gesagt, dass sie vor allem in dx10 deutlich besser sein wird, als die g80...wohl eher nicht
 
Ich bin nur froh, dass ich nicht drauf gewartet habe, gerade in dem für mich relevanten bereich (2560x1600 m. aa af) reißt die überhaupt nix (angesichts dessen, dass sie nen halbes jahr später kommt)
 
anderes testsys, anderer verbrauch ;)

ne es geht ja um die differenz der systeme.
im gleichen system ist ja einmal die gtx dann die xt verbaut und unter gleichen lastbedingungen wird dann gemessen. und da kam eine differenz von +60 bzw. +14 raus bei anderen tests ist die differenz kleiner..selbst wenn das eine system besser mit der karte harmoniert ist das nicht möglich.
wenn alle richtig gemessen haben kann es nur an der belastung liegen.je nachdem welche stelle in welchem game oder benchmark in welcher auflösung...
 
Zuletzt bearbeitet:
anderes testsys, anderer verbrauch ;)

logisch, aber warum ist bei VR-Zone mit dehren System die GTX im idle schlechter wie die XT und bei CB ium vergleich dazu mit dem CB System ist die XT schlechter im idle?
normalerweise müssten die beiden Karten im gleichen Verhältniss stehen, was den verbrauch angeht, ...
Ich denke eher CB hat ein scheiß Messgerät.
So ein Teil wie VR-Zone verwendet misst auf jedenfall genau, ... auch wenn es etwas "gefährlich" aussieht was die dort machen!
 
Zuletzt bearbeitet:
@Snoopy69 jop, ein richtiger jammer.

nach 2 generationen ati bin ich wieder auf nv auf ne 88er gtx gestiegen weil ich mir sowas schon fast gedacht hab.
natürlich sind die treiber noch nix, aber auch ein treiber kann keine wunder vollbringen und nv arbeitet ja auch weiterhin an treibern.
Der stromverbrauch bei stetig ansteigenden energiekosten sollte man auch beachten!
bin mal gespannt wann sich die fanboys hier so richtig fetzen :d
 
Ich hab das Review von HWluxx angefangen zu lesen. Nach den ersten beiden Spiele-Benches hab ich gleich das Fazit angeklickt. Ich könnte mir dieses Elend nicht ansehen :(
Was fällt denen eig. ein so ein halbfertiges Produkt auf den Markt zu schmeissen, das schon min. 6 Monate überfällig ist. Ich bin sowas von enttäuscht. Verärgert auch... Denn sonst hätte ich evtl. bei der Rabattaktion von AT gleich 2x GPU-X² 8800-Kühler gekauft (für SLI).
 
ne es geht ja um die differenz der systeme.
im gleichen system ist ja einmal die gtx dann die xt verbaut und unter gleichen lastbedingungen wird dann gemessen. und da kam eine differenz von +60 bzw. +14 raus bei anderen tests ist die differenz kleiner..selbst wenn das eine system besser mit der karte harmoniert ist das nicht möglich.
wenn alle richtig gemessen haben kann es nur an der belastung liegen.je nachdem welche stelle in welchem game oder benchmark in welcher auflösung...
stromverbrauch, v.a. im idle war ja immer ein hauptkritikpunkt der g80...wohl auch bzw. sogar noch mehr bei der x2900xt
 
der kauf von ATI hat sich für AMD wohl eher nicht so richtig ausgezahlt.....
hoffen wir mal, dass uns AMD erhalten bleibt.

so wie es momentan ausschaut, bin ich mit meiner übertakteten X1900XTX besser dran als mit der neuen 2900er....:hmm:

der stromverbrauch ist eine absolute frechheit :stupid:


wenn da nicht was ordentliches nachkommt werd ich mit der nächsten GPU wieder zu NV wechseln :heul:
 
JAWOLL !!!!! CALL OF JUAREZ DX10 BENCH liegt Nvidia vorne *dance*

hatte schon geschwitzt der g80 chip lost im dx10 voll ab aber dem ist nicht so :d

this made my day !
 
ATI's "Flaggschiff 2900XT" erinnert mich eher an einen bekannten Song...

"Im Tretboot, in Seenot..." ;)
 
wegen den Nvidia Treiber:

woher zum Teufel wollt ihr wissen, wann die Test gemacht wurden?
Der 158.22 wurde am 2.5 freigegeben, jedoch können die Test schon zu dem Zeitung gemacht worden sein bzw fanden gerade statt.

Die haben die Tests bestimmt nicht ersten gestern gemacht ;)
 
Laut CB, auch mit neueren Treiber nicht wirklich viel besser!

"Außerdem ist die Performance mit herkömmlichem Multi-Sampling-Anti-Aliasing ebenfalls nicht gerade berauschend, und hier ändert sich mit dem neuen Treiber nichts. Man kann nur hoffen, dass es sich wirklich um ein Treiberproblem handelt und dieses so schnell wie möglich behoben wird."
 
irgendwie wars ja fast klar, die ewige verschieberei muss ja seine gründe gehabt haben...
 
Was für eine üble Krücke haben die da zusammen gebaut? Und darauf hab ich jetzt ein halbes Jahr gewartet! :heul: Die ist mit AA und AF, was ich immer an habe nicht schneller wie meine alte X1950XTX. :stupid: Da hol ich mir lieber noch ne 2. X1950XTX und mach CF. DX10 braucht man eh nicht so schnell.
 
Zuletzt bearbeitet:
Und alleine diese Wattzahlen sind der Grund, warum mir eine HD 2900XT nicht ins Haus kommt. Was bilden die sich eigentlich ein? Denken die, wir haben alle ein Stromkraftwerk zuhause?

Und warum bringen die (wenn es denn soooo sehr am Treiber liegt) keinen raus, der diese Probleme gleich kittet???

Wenn ihr mich fragt ist das alles verarsche. A/A schämt Euch gewaltig...

mfg
 
Was für eine üble Krücke haben die da zusammen gebaut? Und darauf hab ich jetzt ein halbes Jahr gewartet! :heul: Die ist mit AA und AF, was ich immer an habe nicht schneller wie meine alte X1950XTX. :stupid:

Jop im HL2 Bench z.B. Hat mich auch gewundert, dass sie langsamer ist als der Vorgänger
 
gut, dass so manche leute, die die karte schon laaange zu hause hatten, nicht ganz schön doof ausssehen, denn von den 20+% vorsprung auf die GTX seh ich nichts...
 
weil dx10 auch überhaupt nix mit höher dimensionalen Berechnungen zu tun hat.... Es war eigentlich klar das die karten sich in dx10 genau so verhalten wie in dx9... weil die programmierer derzeit keine verwendung für höher dimensionalen Berechnungen haben...
 
lol 205 seiten diskussion und nun gibts HANDFESTE beweise

das ding ist ein FLOP wie es im buche steht

6 monate mehr entwicklungszeit und dann so was:wall: :wall: :wall:

also dann werd ich mir doch ne 8800GTS holen

naja unsere steithammel gehen jetzt wieder zum amd/intel streit zurück da kann man ja noch auf amd hoffen:heuldoch:

mfg Geforce:banana:
 
Und alleine diese Wattzahlen sind der Grund, warum mir eine HD 2900XT nicht ins Haus kommt. Was bilden die sich eigentlich ein? Denken die, wir haben alle ein Stromkraftwerk zuhause?

Und warum bringen die (wenn es denn soooo sehr am Treiber liegt) keinen raus, der diese Probleme gleich kittet???

Wenn ihr mich fragt ist das alles verarsche. A/A schämt Euch gewaltig...

mfg

Vllt dauert die Treiberprogrammierung auch seine Zeit?
Erst nachdenken dann, ...
NV hat auch monate gebraucht um den Nebelbug in CSS zu beheben, das ging auch nicht von jetzt auf gleich.
Die DX10 Demo rennt auch noch nicht richtig auf den NV Karten obwohl das Game wohl darauf zusammen geschmiedet wurde.

Ich finde aber den Verlust den die ATIs mit AA machen, in der DX10 Demo sehr gering, wäre interessant wie NV da abschneidet, leider läuft die Demo wohl nicht mit AA bei NV Karten!
 
denke aber schon das ati treiber seitig noch ne menge drauf legen kann zumindest was die aa/af performance angeht, da stimmt auf jeden was nicht!
 
Wenn man die gesamten Fakten auf den Tisch legt, hat ATI schon verloren, indem sie die Kunden mit den ersten Benches usw, schon verjagt haben. Auch neue Treiber werden wohl daran nichts ändern...

mfg
 
bin mal gespannt wann sich die fanboys hier so richtig fetzen :d

Warte mal wenn Piefke, Dominator und thade wach sind! ;)

Die Treiberausrede ist sowas von lächerlich seitens A/A, was wurde im Vorfeld über den G80 gemeckert und jetzt wird so ein Murks gebracht.

MfG :cool:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh