ATi R600/RV6xx *Infothread* (Part 2)

Status
Für weitere Antworten geschlossen.
@Xptweaker:
naja sollte der R600 besser mit den kommenden DX10 games zurecht kommen wäre das ein klarer kaufgrund...(für mich jedenfalls)
Denn wenn er fähig ist in DX9 games immernoch 40+ FPS auf hohen Qualitätseinstellungen darzustellen würde ich ihm einen G80 klar vorziehen, da ich dann nicht gleich wieder grafikkarte wechseln muss sobald neue Games released werden.
Sollte sich das ganze Bewahrheiten dann steht fest das bei mir in 1-2 Monaten ein R600 werkelt^^
(hoffentlich kommen bald mal DX10 Benchmarks die das [wenn es so ist] beweisen.)
Was interessieren mich 120 (G80) im vergleich zu 100 FPS (R600) in DX9 games wenn der G80 dann in einigen später kommend DX10 games nur noch 30 FPS und der R600 dafür 50 FPS hat? [ACHTUNG NUR EIN BEISPIEL]

Mfg Seb89


das der g80 dann langsamer ist steht noch nicht fest, hängt dann wohl von den verwendeten vec ops ab.wenn du die performance heute nicht brauchst tu dir selbst einen gefallen und kauf dir ne midrange karte, und später nen G90 R650.hier werden meist avg oder max frames angegeben.spielst du mit v-sync in 1650-1080 brauchst du min 60fps.- und da trent sich die spreu vom weizen.
hängt sicher von der ausgangssituation ab, aber für mich müste der r600 heute schon dem g80 ebenbürtig bis überlegen sein.
die hardware entwickelt sich so schnell...würde mich nicht wundern wenn wir ende des jahres schon dx 10.b oder 11 sehen, wenn gerade mal die ersten games draußen sind.
die leute die sich letztes jahr ne dx10 g80 karte geholt haben, haben bis crysis und co ende august kommen gut ein jahr auf die ersten dx10 games gewarte.und am ende reicht vielleicht die performancen garnicht mehr....mach nicht den gleichen fehler.dx10 können nv und ati, kauf dir also die karte die das besser P/L hat oder dir die heute benötigte performancen bietet.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wieso solltest du mehr wie 25 brauchen wenn das auge gar nicht mehr erkennen kann o_O? einzig und allein dass das game ein bisschen "flüssiger" läuft. Mehr wie 40, da erkennt man keinen unterschied mehr. wer behauptet er brauch mehr wie 100 fps sonst kann er nicht zocken ist realitätsfern -.-
Wer sagt das ich die Leistung nicht brauche, aber was bringen mir 120 fps??? erklär mir das bitte

PS: war das beim R520 nicht genauso? am anfang war er mit dem G70 ebenbürtig in späteren Games zog er an ihm vorbei. Wenn ich mich irre, korrigiert mich bitte.

(Ich kauf die Karte die ich für das entsprechende Geld am längsten benutzen kann, ich sehe keinen Grund mir einen G80 zu kaufen wenn er dann in nem halben jahr schon nicht mehr die entspr. Performance hervorbringt die für die Games benötigt wird. Ich habe nicht vor mir jedes halbe oder jedes Jahr ne neue Karte zu kaufen.)
 
Zuletzt bearbeitet:
Ok, sind zwar von ATI, aber besser als nichts

diese diagramme sind ja völlig blöd gemacht, so dass es auf den ersten blick so aussieht, als ob die neue deutlich (von den balken her) besser ist! wenn man aber auf die zahlen sieht, ist die neue gar nicht mehr so toll...:hmm:
 
diese diagramme sind ja völlig blöd gemacht, so dass es auf den ersten blick so aussieht, als ob die neue deutlich (von den balken her) besser ist! wenn man aber auf die zahlen sieht, ist die neue gar nicht mehr so toll...:hmm:

find ich auch^^ auf den ersten blick täuscht das ganz schön, (Beabsichtigt o_O?^^)
 
die Diagramme sehen so aus als ob die R600 3 4 mal so schnell ist als diie X1950 XTX wären. Ich glaube das ist so gewollt und beabsichtigt von Ati :teufel:
 
wieso solltest du mehr wie 25 brauchen wenn das auge gar nicht mehr erkennen kann o_O? einzig und allein dass das game ein bisschen "flüssiger" läuft. Mehr wie 40, da erkennt man keinen unterschied mehr. wer behauptet er brauch mehr wie 100 fps sonst kann er nicht zocken ist realitätsfern -.-
Wer sagt das ich die Leistung nicht brauche, aber was bringen mir 120 fps??? erklär mir das bitte
ich möchte jetzt keine diskussion darüber lostreten...
es gab dazu schon zig threads, kannst ja mal die suche nutzen ;)

es kommt ganz auf das spiel drauf an, einen schnellen shooter kannst du mit 25fps vergessen, hast du das mal probiert?
eine rennspiel wie TDU ist auch bei 25fps spielbar, aber bei CS:S kriegt man ne absolute macke

diese diagramme sind ja völlig blöd gemacht, so dass es auf den ersten blick so aussieht, als ob die neue deutlich (von den balken her) besser ist! wenn man aber auf die zahlen sieht, ist die neue gar nicht mehr so toll...:hmm:
es sind interne diagramme und kommen nicht von neutraler seite
ist doch klar das ati sich selbst positiv darstellen möchte, ich fände es eher blöd wenn sie auf ihrer eigenen präsentation den anwesenden erklären würden NV hätte die schnellere karte

gruß klasse
 
Zuletzt bearbeitet:

kein problem Herr Prasi.

Die Diagramme sind wirklich sehr Täuschend aufgebaut und leider sehr entäuschend.Ich hoffe das sich das bild schnell aufklärt.
 
@ klasse: deshalb hab ich ja auch geschrieben das man ein paar mehr braucht das entspr. games flüssig laufen. aber in der Regel braucht man bei keinem Game mehr wie 50 FPS ich glaube sogar bei Quake 3 würden 50 reichen (habs aber selbst noch nicht getestet^^)

Nee du die Pro Gamer brauchen bei Quake 3 (und auch bei CS) mindestens 100FPS, die merken da echt noch einen Unterschied...

... 50FPS wären für mich auch zu wenig, da ich wegen dem TFT gerne mit Vsync zocke und da brauche ich 60FPS...
 
@ klasse: deshalb hab ich ja auch geschrieben das man ein paar mehr braucht das entspr. games flüssig laufen. aber in der Regel braucht man bei keinem Game mehr wie 50 FPS ich glaube sogar bei Quake 3 würden 50 reichen (habs aber selbst noch nicht getestet^^)

Bei Quake 3 braucht man aus Prinzip 125 FPS, allein wegen des Movements.
Aber teste mal zb. bei Call of Duty in der Console /seta com_maxfps 125 und danach /seta com_maxfps 30. Du wirst es als unspielbar bewerten!
 
beim r520 war das so, was nicht heißt das es wieder so sein wird..wenn dann wäre es doch schön..nur sind morgen die midrange karten wahrscheinlich für weniger geld genauso schnell und haben ev. noch besser features und verbrauchen weniger strom...
25fps sind für des menschliche auge zumindest beim vernsehen flüssig, hier arbeitet man auch mit 50 halbbildern oder bei 100hz geräten mit entsprechend höhere wiederholfrequenz.
ich kenne jedoch niemanden der in einem ego shooter 25fps als flüssig bezeichen würde.
ich spiel wie gesagt mit v-sync, habe also im idealfall max/min 60fps allerdings dropt da sgame unter 60fps sofort auf 30fps, und das ruckelt!
kannst gern auf ne tasse tee rum kommen und es dir ansehen...;)

war auch nur als rat gemeint, wirst schon selber wissen was du machst.
mit 30 beitragen. weiss man immer nicht wie versiert die leute schon sind, aber wie es aussieht bist du ja mit der materie vertraut.
 
ok dann muss ich wohl nachgeben.
trotzdem denk ich ma das die Leistung des R600 für die DX9 games die im moment auf dem Markt sind reicht...
Also wenn der R600 für kommende Games besser gerüstet sein sollte, dann kann man ja eigentlich die paar FPS weniger (sind ja nicht viel) in kauf nehmen. Da er dafür mehr FPS bei kommenden Games hat.
Ist aber wie gesagt ansichtssache.
Sollte sich das ganze Bewahrheiten, dann sehe ich (für mich persönlich) aber keinen Grund wieso ich einen G80 anstelle eines R600 kaufen sollte... (da ich nicht so oft auf/nachrüsten möchte).
 
Zuletzt bearbeitet:
ich kann mit nicht vorstellen das der R600 nur mit DX10 richtig abgeht, das ist auch nur DX9 mit ein paar besseren effekten und leichterer programmierung für entwickler.
 
Fangt bitte keine Diskussion um Beitragszahlen an, die sind nichts, aber auch gar nichts wert.
Auf jeden Fall ist es durchaus so, dass CS & Konsorten mit mehr FPS auch besser spielbar sind - die Frage ist doch, ob man das merkt. Ich behaupte mal lapidar, Gelegenheitsspieler sehen von diesem Effekt nichts und spielen auch mit 50fps gut, wohingegen man die MehrFPS als Vielzocker sehr direkt "fühlt".
 

Fudzilla dreht sich manchmal wie das Fänchen im Wind, es scheint sich aber zu bestätigen wie es schon bei der X19X0 Serie war, zuerst mal gleich auf oder ein wenig drunter unter den G80, aber in nem Halben Jahr, dem G80 überlegen.
Wenn sich jetzt die Spielehersteller auf den R600 einschießen, wird der R600 seine Performance wohl richtig zeigen können.
Sollten sich die Spielehersteller nicht drauf einlassen, schießen sie sich wohl selber ins Bein und uns auch damit.

Hoffe mal das es so kommen wird, dass der R600 deutlich an Performance zulegt, das kann nur dem Preis gut tun.
Denke auch, dass die XT der GTX bis zum Release ungefähr ebenbürdig ist.

Und hört bitte mit den FPS quark auf, oder macht nen extra thread!
 
Na^^ heut geht Fuzilla aber ganz schön ans Werk :lol:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=742&Itemid=1
http://www.fudzilla.com/index.php?option=com_content&task=view&id=743&Itemid=1

@ klasse: deshalb hab ich ja auch geschrieben das man ein paar mehr braucht das entspr. games flüssig laufen. aber in der Regel braucht man bei keinem Game mehr wie 50 FPS ich glaube sogar bei Quake 3 würden 50 reichen (habs aber selbst noch nicht getestet^^)


der zweit link wurde hier ja schon besprochen..die 40%+ wird er aber nur haben bei komplexeren vektorberechnungen. nicht bei vec1 vec2.
da könnte es genau andersherum laufen.oder gehen di jetzt davon aus das die aufteilung vec5 auch in 1 1 1 1 1 gesplittet werden kann!?
 
der R600 wird vorallem bei der einführung von Vec2 und höheren instructions profitieren, was weniger mit den DX specs zu tun hat, bei ausschließlich Vec2 Instructions ist der R600 dem G80 überlegen.. rein von der Shaderleistung her ;)
 
Wenn sich jetzt die Spielehersteller auf den R600 einschießen, wird der R600 seine Performance wohl richtig zeigen können.
Sollten sich die Spielehersteller nicht drauf einlassen, schießen sie sich wohl selber ins Bein und uns auch damit.

ein spiel wird aber auch nicht in einem halben oder ganzen jahr programmiert, da gehört auch ordentlich entwicklungszeit dazu
vielleicht haben wir ja jemanden unter uns der sagen kann ob kommende spiele komplexere shader nutzen werden oder nicht

gruß klasse
 
ein spiel wird aber auch nicht in einem halben oder ganzen jahr programmiert, da gehört auch ordentlich entwicklungszeit dazu
vielleicht haben wir ja jemanden unter uns der sagen kann ob kommende spiele komplexere shader nutzen werden oder nicht

gruß klasse

Naja, vielleicht war es ja umgekehrt, die Spieleprogrammierer haben das angekündigt und ATi hat sich dann drauf eingeschossen.
Die 1900 XT(X) hatte ja schon enorm mehr Schader als die damaligen Nvidia Karten und ist bei den jetzigen Spielen klar im vorteil gegenüber den den 7900er von Nvidia.

Aber Achtung: Das war reine Spekulation!
 
Du musst dich doch nur mal fragen, was es für höherdimensionale Vektoren als 3D gibt. Vertexberechnungen sind eindeutig 3D, Farbwerte ohne Alpha ebenfalls - und da findet heute die Mehrzahl der Kalkulationen statt, wenn ich mich nicht irre. Also: Welche für Grafikberechnungen relevanten Werte könnten 4-, 5- oder gar 8-dimensional sein?
 
Also wie angemmonnen ist die X2900 Serie für mehr als 6 Spielbare Monate gebaut worden.Wer schlau ist und nicht jeden 3 Monat ne neue Karte kauft greift zu neuen X2900 Xt und nicht zu einer 8800.:)

Mit der X2900 XT gehts viel länger flüssig .....
 
Zuletzt bearbeitet:
Und wie begründest du diese äußerst provokante Darstellung?
 
geo shader waren doch vec5 oder? oder war das Phyikshader (muss mich mit der SW seite noch "etwas" befassen :( )
ansonsten sollen sogar pixelberechnungen auf vec2 kommen (und da haben wir schon einen eklätanten vorteil...)
 
finde die aussage von Dominator18 gar nicht so abwegig die 8800er reihe ist immerhin schon 6 Monate alt .... diese wird in 2-3 monaten eh vom G90 abgelöst.

Wenn ich jetzt erst eine Graka kaufen müsste würde ich auch eine x2900xt der 8800gtx vor ziehen aber ich hab meine ja schon seit januar im rechner *gg*
 
Also wie angemmonnen ist die X2900 Serie für mehr als 6 Spielbare Monate gebaut worden.Wer schlau ist und nicht jeden 3 Monat ne neue Karte kauft greift zu neuen X2900 Xt und nicht zu einer 8800.:)

Mit der X2900 XT gehts viel länger flüssig .....

Milchmädchenrechnung, aber was kann man von dir schon mehr erwarten? :stupid:
 
Wenn ich jetzt erst eine Graka kaufen müsste würde ich auch eine x2900xt der 8800gtx vor ziehen aber ich hab meine ja schon seit januar im rechner *gg*


wenn die G80 weiterhin das bessere gesamtpaket haben sollte, wieso sollte man dann einen R600 kaufen? das Alter ist doch unwichtig, die leistung zählt.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh