ATi R600/RV6xx *Infothread* (Part 2)

Status
Für weitere Antworten geschlossen.
wenn die G80 weiterhin das bessere gesamtpaket haben sollte, wieso sollte man dann einen R600 kaufen? das Alter ist doch unwichtig, die leistung zählt.

Ich glaube nicht das eine X2900 XT heute irgend wo probleme mit ein Spiel haben könnte,auch wenn die Karte langsamer als eine GTx ist.:wall:

Bei Dx10 Spielen ist eine XT dann halt vorne.Mall schauen wann die DX 10 Patches zu COH und Just Cause kommen.Wenn die Ati wirklich viel besser unter DX10 geht dann sollten sie das schnell beweisen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
bevor ich nicht weiß ob und wann es eine XTX geben wird, kauf ich mir eh keine XT. zuletzt passiert noch das gleiche wie bei der 1800 serie :d

die kleinen karten ala nv 8600 oder ati 2600 kann man doch eh vergessen, die können ruhig später kommen, weil langsame karte gibt es genug am markt :d
 
gerade die 2600/8600 wären interressant, nicht alle wollen >300€ für eine Graka ausgeben, die nach einem Jahr total überholt ist ;)
 
Ich glaube nicht das eine X2900 XT heute irgend wo probleme mit ein Spiel haben könnte,auch wenn die Karte langsamer als eine GTx ist.:wall:

es ist egal ob sie heute probleme hat. wieso sollte ich mir, sollte die G80 weiterhin das bessere gesamtpaket haben, eine schlechtere Karte kaufen, nur weil sie neuer ist? das macht KEINEN sinn!


Bei Dx10 Spielen ist eine XT dann halt vorne.Mall schauen wann die DX 10 Patches zu COH und Just Cause kommen.Wenn die Ati wirklich viel besser unter DX10 geht dann sollten sie das schnell beweisen.

eben, das sind halt alles nur annahmen!
keiner weiß, ob die XT in DX10 besser abschneiden wird, als die GTX. das wird sich erst zeigen.




das argument mit dem "ist neuer" ist vollkommen idiotisch, da auch neuere hardware schlechter sein kann.
 
der R600 wird vorallem bei der einführung von Vec2 und höheren instructions profitieren, was weniger mit den DX specs zu tun hat, bei ausschließlich Vec2 Instructions ist der R600 dem G80 überlegen.. rein von der Shaderleistung her ;)

Nein, das stimmt nicht.
Die 8800GTX hat 8 Vec16 Recheneinheiten, welche für 16 Pixel eine Komponente berechnen. Dazu kommt noch der hohe Takt von 1350MHz. Da es architekturbedingt fats immer eine 100% Auslastung gibt, erreicht die 8800GTX die voll theoretische MADD-Leistung von 345,6GFlops/s.
Der r600 hat nur 4 Vec16 Recheneinheiten, welche für 16 Pixel 5 Komponenten berechnen kann. Der Shaderclock liegt bei 750. Sollen jetzt nur Berechnungen mit 2 Komponenten durchgeführt werden, liegen 3/5 aller Recheneinheiten brach. Die theoretische MADD-Leistung liegt bei 192GFlops/s.
Ansonsten ist es alles nicht so einfach mit der ganzen Berechnung. nVidia gibt in ihren Papern an, dass 128 "skalare" die doppelte Geschwindigkeit von 32 "Vec4" (4 Komponenten) erreichen.
 
finde die aussage von Dominator18 gar nicht so abwegig die 8800er reihe ist immerhin schon 6 Monate alt ....

naja, die x2900 ist auch schon 6 Monate alt, nur hat ATI sie bisher nicht zum laufen bekommen, also ist sie vom Technischen her genauso alt wie die 8800!
Also der vergleich hinkt, wenn die G90 da ist, und ATI dann erst die x2900(R600) bringt, sind die karten deshalb noch lange nicht auf dem selben Technischen level !
 
Ich find diese andauernden Verschiebungen seitens ADM/ATI sehr sehr traurig. Nicht weil wir unbedingt auf deren Grakageneration so lange warten müssen, sondern weil die Preise für die neuen Karten einfach nicht sinken.

Wäre die 2900XT im Januar rausgekommen, dann wären die Preise nun sicherlich bei ca. 300€ pro xt und 400 pro GTX.

ps. unglaublich, wieviele fanboys hier rumlaufen und wie fixiert deren Meinung ist.
 
das ja auch keine glanzleistung:

3D engine doesn’t work


We already reported that ATI delayed the RV630, Radeon HD 2600 generation as it had some problems. It turns out that the current samples have some severe problems. Some of the samples have troubles with the 3D engine, while others don't work with HD content.

It is so bad that it instantly pushed ATI back almost two months, as there won't be any RV630 based cards until late June.

We can only say DAAMIT to that too.


http://www.fudzilla.com/index.php?option=com_content&task=view&id=749&Itemid=1
 
Zuletzt bearbeitet:
unglaublich piefke :shake:

die meldung wurde paar zeilen über dir schon gepostet ;)
 
wurde auch schon gepostet^^ immer diese ständigen doppelposts :(


sry für OT...

*EDIT: nein ich war zu lahm............
 
unglaublich piefke :shake:

die meldung wurde paar zeilen über dir schon gepostet ;)


unglaublich King Bill !

immer dieser SPAM !
Hinzugefügter Post:
wurde auch schon gepostet^^ immer diese ständigen doppelposts :(


sry für OT...

*EDIT: nein ich war zu lahm............

und noch einer !



Ich habe diesen Text oben nirgends gesehen, und ich schau nunmal nicht in alle Links rein die hier so gepostet werden!
 
Zuletzt bearbeitet:
bevor ich nicht weiß ob und wann es eine XTX geben wird, kauf ich mir eh keine XT. zuletzt passiert noch das gleiche wie bei der 1800 serie :d

die kleinen karten ala nv 8600 oder ati 2600 kann man doch eh vergessen, die können ruhig später kommen, weil langsame karte gibt es genug am markt :d

aja
der midrange-bereich is eg der bereich wo man am meisten verdient!
also diese aussage erachte ich ma als falsch!

ati kann es sich nich erlauben ihre dx10 midrange-karten nochma extrem verspäten zu lassen
 
Und wie begründest du diese äußerst provokante Darstellung?

kann er gar nicht, weil er nur so tut, als wüsse er bescheid...das wird sich zeigen, ob die r600 karten bei den dx10 games besser sind oder nicht, aber bis dahin gibt es schon von ati u. nvidia die nachfolgerkarten...aber man wird mit beiden karten die neuen spiele flüssig spielen können (g80/r600), davon ist meiner meinung nach voll auszugehen, auch wenn es nicht 100xAA und 50x AF sind... ;)
 
Nein, das stimmt nicht.
Die 8800GTX hat 8 Vec16 Recheneinheiten, welche für 16 Pixel eine Komponente berechnen. Dazu kommt noch der hohe Takt von 1350MHz. Da es architekturbedingt fats immer eine 100% Auslastung gibt, erreicht die 8800GTX die voll theoretische MADD-Leistung von 345,6GFlops/s.
Der r600 hat nur 4 Vec16 Recheneinheiten, welche für 16 Pixel 5 Komponenten berechnen kann. Der Shaderclock liegt bei 750. Sollen jetzt nur Berechnungen mit 2 Komponenten durchgeführt werden, liegen 3/5 aller Recheneinheiten brach. Die theoretische MADD-Leistung liegt bei 192GFlops/s.
Ansonsten ist es alles nicht so einfach mit der ganzen Berechnung. nVidia gibt in ihren Papern an, dass 128 "skalare" die doppelte Geschwindigkeit von 32 "Vec4" (4 Komponenten) erreichen.
da kommt dann der Split ins Spiel, denn ansonsten hätte der R600 ja gegen die 8800GTS keine Chance, sprich die diskutuierte 3+2 oder gar 2+2+1 Aufteilung der Komponentenberechnung

oder hab ich da was komplett daneben verstanden :fresse: lese mich erst in die Materie ein, bin also für jede hilfestellung dankbar :)
 
da kommt dann der Split ins Spiel, denn ansonsten hätte der R600 ja gegen die 8800GTS keine Chance, sprich die diskutuierte 3+2 oder gar 2+2+1 Aufteilung der Komponentenberechnung

Du meinst 1:1:1:1:1 ;)
Keine Ahnung, inweiweit das etwas bringt.

oder hab ich da was komplett daneben verstanden :fresse: lese mich erst in die Materie ein, bin also für jede hilfestellung dankbar :)

Da sganze Thema verbreitet Kopfschmerzen. Kannst dir ja Robbitop's Gedanken zu dem Thema durchlesen: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5450309&postcount=459
Es ist verdammt komplex und daher nicht so einfach. Was jedoch fakt ist, dass der G80 immer am Maximum seiner MADD-Leistung läuft und das eine Berechnung mit 2 Komponenten dem r600 keinen Vorteil bringt.
 
kopfschmerzen ist gut :fresse:

naja mit dem Split glaubte ich bei einen von Nakai`s ausführungen verstanden zu haben, dass mehrere vec2 Komponentenaufträge im gleichen kanal hintereinander abgearbeitet werden können also nicht nur ein Vec1-5 Befehl, sondern bei auch 2xVec2 im selben takt...

Robbitop`s Schilderung dazu ist gut, nur denke ich, würde der R600 bei Vec1 Berechnungen sonst viel weiter hinter der G80 liegen, der effektive Aufbau der GPU ist dabei sich ein Vorteil, auch wenn die summierte Rechenleistung geringer ist
 
ich hab meine konsequenzen gezogen und mir gestern ne 8800 GTS geholt, rennt wie die pest, hatte schon Nvida und ATI, war mit beiden zufrieden. Aber irgendwann is auch gut. Schade AMD/ATI wieder einen Kunden verloren...nächstemal bitte 3 Monate eher..
 
Und was hat es mit den Superscalar Einheiten auf sich?
Könnte das auch noch jemand erklären?
Schmeist das nicht die vorherigen Theorien wieder auf den Kopf?
 
Superskalar ist doch lediglich ein anderes Wort für eine Vektor-ALU-basierte Architektur - oder?
 
ich hab meine konsequenzen gezogen und mir gestern ne 8800 GTS geholt, rennt wie die pest, hatte schon Nvida und ATI, war mit beiden zufrieden. Aber irgendwann is auch gut. Schade AMD/ATI wieder einen Kunden verloren...nächstemal bitte 3 Monate eher..


die 2 wochen hätte ich noch gewartet.
oder ist dir deine alte graka abgeraucht?
 
Tja Rabauke ... also jetzt eine Graka zu kaufen ist mal vorsichtig gesagt ...äääh ... sehr ungeschickt. Des ist noch die freundliche Formulierung. Eigentlich weisst du selber ganz genau wie es ausschaut :drool:

Die paar Tage hätteste echt noch warten sollen, schliesse mich meinem Vorposter an. Die Preise von Nvidia wären wahrscheinlich (!?!?) zumindest unter Druck gekommen. Besonders der von der GTS hätte nach dem ATI Launch schon purzeln können.

Naja du kannst dir dann in nen paar Tagen ja in den Hintern beissen. Aber immerhin haste nen fetten pöhsen Kommentar abgegeben, der AMD/ATI sicher so richtig wehtut :hwluxx:
 
In 2 Wochen wissen wir mehr.Ich denke das die HD2900XT mit der 8800GTX ca. gleich auf ist.Aber bei DX10 Spielen wird die ATI locker davon ziehen den dafür ist sie ausgelegt.Die Nvidia zwar auch aber nur bei DX9 Benchmarks und Spielen schnell ist und bei DX10 Benchmarks eingeht.Wieso soll Nvidia eine 8000er GTX Ultra bringen wenn die GTS und GTX schneller sein sollen.So sehe ich das.Seid der 9700PRO ist ATI immer die bessere Wahl gewesen für mich.
 
thx für die pics...
ich dachte immer, das die midrage echtes HDMI haben, also ohne adapter...
und die kühler der midrage sind auch ganszchön klein, also alles andere als das eine, was wir gesehen ahbe, von der xt, damals zur cebit...
 
solange der Sound schön mitausgegeben wird kann ich durchwegs mit dem Adapter leben ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh