ATi R600/RV6xx *Infothread* (Part 3)

Status
Für weitere Antworten geschlossen.
Also Ich wollt ja eigentlich nicht so ne Karte kaufen ... Zu hoch der Stromverbrauch ist.
Aber dann hab Ich gelesen dass ne Blackbox von Valve beiliegt und eben noch diese Oberhammerfetteverpackung gesehen.
Kein Vergleich zu den Verpackungen der X850XT Karten von PowerColor.
Bei den Rendervideos von Call of Juarez ... also da komm Ich mir etwas verarscht vor, da wird HDR+ AA angepriesen.
Des sollte eigentlich schon mit den X1XXX Karten gehen.(Also nicht DX10 exclusiv)

Der Artikel auf Guru.com ist net schlecht, wenn man mit dem Gedanken spielt sich die Karte zu kaufen.^^
 

Anhänge

  • powercolor.jpg
    powercolor.jpg
    127,5 KB · Aufrufe: 71
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das wird einfach ignoriert, 172% liest sich so schön... :rolleyes: :shot:

Bitte auch ein wenig nachdenken! 172% Mehrleistung bei Oblivion, das hat nicht nur mit dem "Cheating" zu tun.

Soviel macht das nicht aus, schon gar keine 172% + :rolleyes:

€dit: So Heute habe ich wirklich übertrieben, wird Zeit zum Aufhören. Nacht zusammen :)
 
Zuletzt bearbeitet:
Also Ich wollt ja eigentlich nicht so ne Karte kaufen ... Zu hoch der Stromverbrauch ist.
Aber dann hab Ich gelesen dass ne Blackbox von Valve beiliegt und eben noch diese Oberhammerfetteverpackung gesehen.
Kein Vergleich zu den Verpackungen der X850XT Karten von PowerColor.

hää?

Die Blackbox liegt fast bei jeder 2900er bei...
 
Ja die liegt jeder HD2900XT bei, des wusst Ich aber nicht.
Ich mein atm kostet die Karte 365 Euro. Episode2 wird wieder so 20 Euro kosten. Also sinds nur noch 345 Euro.
Verstehst du? ;) (ja, night Thade)
 
Zuletzt bearbeitet:
wurde hier schon mal erwähnt, wann die XTX kommen wird :rolleyes: :wink:

Ne,aber du kannst die X2900 XT leicht zu einer XTX machen.1 GB Vram wird auch nicht viel reißen-.-

Die X2900 XT läuft zurzeit einfach mit 64 Alus Shadereinheiten.........es ist klar das die X2900XT so nicht überzeugen kann........

Aber die AA-Af Geschichte ist eh ein Treiberproblem......
 
Zuletzt bearbeitet:
Nein von der XTX hat man schon ne Weile nix mehr gehört :(
 
das wird bestimmt wieder so enden wie mit meiner 1800xt. Ich kauf mir die 2900xt und kurze zeit später kommt dann die XTX.
 
um nochmals nachzufragen, ist in absehbarer zeit mit einer x2900xt mit 1gb gddr4 ram zu rechnen?
und wie siehts mit der crossfire-fähigkeit aus? masterkarte gibts nicht, gibt es denn auf zb. einem rd600-board irgeneine art der internen verbindung zweier karten?
 
um nochmals nachzufragen, ist in absehbarer zeit mit einer x2900xt mit 1gb gddr4 ram zu rechnen?
und wie siehts mit der crossfire-fähigkeit aus? masterkarte gibts nicht, gibt es denn auf zb. einem rd600-board irgeneine art der internen verbindung zweier karten?

das gibt es doch schon seit der1900 serie glaub ich.
 
um nochmals nachzufragen, ist in absehbarer zeit mit einer x2900xt mit 1gb gddr4 ram zu rechnen?
und wie siehts mit der crossfire-fähigkeit aus? masterkarte gibts nicht, gibt es denn auf zb. einem rd600-board irgeneine art der internen verbindung zweier karten?

na die zwei Crossfire Brücken, die man auch bei der x1950Pro und x1650pro/xt findet!
 
wieviel zeit ist denn vom release des r520 zum zum r580 vergangen? kommen 3 monate hin?
viel schneller wird's mit dem r620 auch nicht gehen (oder wie auch immer der refresh-chip dann heißt).

vermutlich läuft's mit den HD2xxx karten genau so wie mit den x1xxx karten. die erste generation überzeigt nicht wirklich, aber ati punktet mit dem refresh-chip und mit der breiten palette.
 
Bitte auch ein wenig nachdenken! 172% Mehrleistung bei Oblivion, das hat nicht nur mit dem "Cheating" zu tun.

Soviel macht das nicht aus, schon gar keine 172% + :rolleyes:

€dit: So Heute habe ich wirklich übertrieben, wird Zeit zum Aufhören. Nacht zusammen :)



Dann liefere Beweise und blubbere nicht ständig sinnlos rum! Du weißt scheinbar gar nicht wie viel Supersampling kosten kann. An diesem unfairen Vergleich sich überhaupt aufzugeilen, ist doch für die Tonne.
 
wieviel zeit ist denn vom release des r520 zum zum r580 vergangen? kommen 3 monate hin?
viel schneller wird's mit dem r620 auch nicht gehen (oder wie auch immer der refresh-chip dann heißt).

vermutlich läuft's mit den HD2xxx karten genau so wie mit den x1xxx karten. die erste generation überzeigt nicht wirklich, aber ati punktet mit dem refresh-chip und mit der breiten palette.
Vielleicht HD2950XT 512MB DDR4 65nm und HD2950XTX 1024 DDR4 65nm.
Ich weiss es auch nicht.Aber es wird was passieren in 2 - 3 Monaten.
 
Ich bin schon auf den nächsten Tag gespannt,ob da vielleicht wieder ein neuer Treiber kommt......
 
Vielleicht HD2950XT 512MB DDR4 65nm und HD2950XTX 1024 DDR4 65nm.
Ich weiss es auch nicht.Aber es wird was passieren in 2 - 3 Monaten.

Hoffentlich, allerdings ist dann die 2900XT eine Frechheit, wie damals die X1800XT.
 
Bitte auch ein wenig nachdenken! 172% Mehrleistung bei Oblivion, das hat nicht nur mit dem "Cheating" zu tun.
Soviel macht das nicht aus, schon gar keine 172% + :rolleyes:

Ja, man kann es sich natürlich auch "schön" denken...

Die Sache hat einen faden Beigeschmack. Müssen wir uns jetzt auf einen vom Treiber vogegebenen Leistungs/Qualitäts-Kompromiss einstellen, nur damit das Gameplay nicht auf der Strecke bleibt? Sieht so die AA/AF Performance-Lösung der neuen Treiber aus die den R600 in seinem offensichtlichen AA/AF-Leistungsdefizit beflügeln sollen? Kein schöner Gedanke. Das riecht nach Schadensminimierung wenn die jetzt schon mit solchen Experimenten anfangen.
 
naja, die x1800xt als "frechheit" zu bezeichnen ist schon etwas arg.. einzig der zeitabstand, indem der r580 released wurde war sehr kurz und daher für x1800xt käufer der ersten stunde eher ärgerlich.
 
naja, die x1800xt als "frechheit" zu bezeichnen ist schon etwas arg.. einzig der zeitabstand, indem der r580 released wurde war sehr kurz und daher für x1800xt käufer der ersten stunde eher ärgerlich.
Als Frechheit würde ich die X1800XT auch nicht darstellen schnell war sie zu dem Zeitpunkt trotzdem.
 
360 Watt Verbrauch unter Last - Nein Danke ATI^^

War bisher immer überzeugter ATI User und bin auch sehr zufrieden mit meiner X1900, aber irgendwo hört es nun dann doch auf...
 
Dann liefere Beweise und blubbere nicht ständig sinnlos rum! Du weißt scheinbar gar nicht wie viel Supersampling kosten kann. An diesem unfairen Vergleich sich überhaupt aufzugeilen, ist doch für die Tonne.

Lol gehts noch? Ich geile mich überhaupt nicht an der Sache auf, ich sag nur was ich denke. Und ich denke, dass Rumschrauben, bzw das Weglassen des qualitativen adaptiven Anti Aliasing keine 172% ausmacht. Zumal EATM die Sache optisch zumindest ausgleicht. Siehe Posts vom User [HOT], der das sehr schön verständlich gemacht hat, was ich überhaupt meine.

Du immer mit deinen Rechtweisungsversuchen, lass mir doch meine Meinung, was gehts dich an, du kannst doch auch nur spekulieren.

Man siehts ja wie du Wombat und Co angreifst, nur weil sie ein wenig spekuliert haben. Ich bleibe bei meiner Meinung, auch wenn ich kein richtiger Experte bin, was ich nebenbei auch gar nicht sein will, kann ich mir wohl mein eigenes Urteil bilden.

Von daher lass es in Zukunft!
Hinzugefügter Post:
360 Watt Verbrauch unter Last - Nein Danke ATI^^

War bisher immer überzeugter ATI User und bin auch sehr zufrieden mit meiner X1900, aber irgendwo hört es nun dann doch auf...

Ach man, das ist das komplette System, oder bin ich schon komplett verblödet, ich sollte mich wohl hinlegen ^^
 
Zuletzt bearbeitet:
Lohnt es sich eine HD 2900 XT zu kaufen, wenn man eine 8800 GTS hat?

Ich mag eigentlich ATI sehr, aber laut Tomshardware ist die neue HD 2900 XT ja nicht so toll.

Was meint ihr?
 
360 Watt Verbrauch unter Last - Nein Danke ATI^^

War bisher immer überzeugter ATI User und bin auch sehr zufrieden mit meiner X1900, aber irgendwo hört es nun dann doch auf...

Die Peak Power der Karte beträgt 214W, wie Guru3D gemessen hat. Unschöner sind da die 100°C, die der Chip bei Ohrenschonender Kühlung ganz schnell überschreitet.

@ stevens

Ich würde mal sagen, das blödeste, was man im Moment machen kann, ist von einer 8800GTS auf eine HD 2900XT wechseln. :bigok:
 
320MB oder 640MB?

Ich hab die 640er Version.

Hat Tomshardware da mehr für nvidia getestet oder war der Test schon objektiv?

ATI hatte 1 Jahr Zeit um ein gutes Produkt aufn Markt zu bringen und irgendwie kann ich mir nicht vorstellen, dass die neuen ATI Karten gerade mal an die aktuellen von nVIDIA rankommen sollen?
 
Ich hab die 640er Version.

Hat Tomshardware da mehr für nvidia getestet oder war der Test schon objektiv?

ATI hatte 1 Jahr Zeit um ein gutes Produkt aufn Markt zu bringen und irgendwie kann ich mir nicht vorstellen, dass die neuen ATI Karten gerade mal an die aktuellen von nVIDIA rankommen sollen?
Jetzt zu wechseln lohnt auf keinen Fall.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh