ATi R600/RV6xx *Infothread* (Part 2)

Status
Für weitere Antworten geschlossen.
hatten wir das nicht schon vor x Seiten, dass der R600 bei Vec2 und höher erst richtig loslegen kann (bei Vec5 maximale rechenleistung) hingegen der G80 kann immer seine volle beutzten (Vec1-zb Vec5)

wenn unter DX10 nur mehr mit Vec>2 programmiert wird wir der R600 gewaltig zulegen, im Verhältnis zu aktuellen Games die größtenteils Vec1 ops verwenden.... das hat aber wieder nix mit DX zu tun...

verwunderlich genug, dass der R600 mit 64 Shader in die Gegenden einer G80 mit 128 vorstößt oder? und jetzt fängt die sache mit dem split wieder an usw usw usw

wers lesen will einfach 20Seiten zurücksprigen, steht immer wieder das selbe, mit immer wieder den selben langweiligen Streitereien......
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der R600 hat 64 Shader prozzis welche 5 operrationen pro takt ausführen können aber eben (wahrscheinlich) nur unter Dx10 unter Dx9 werden (wahrscheinlich) wohl nur 1 oder 2 Operrationen pro takt möglich sein.

Nochmal zum vergleich die 8800 GTX hat 128 Shader Prozzis welche aber nur 1 operation pro takt ausführen können dafür sind die aber mit 1350 MHz sehr viel höher als beim R600 getaktet.

Das kommt wohl nicht auf DX9 oder 10 an, wie viele Opterationen pro Takt ausgeführt werden können. Sondern eher darau wie die Gamehersteller ihre Games programmieren. Mit Spieleprogrammierung kenne ich mich nicht so gut aus, aber ich behaupte mal das es da keinen großen Unterschied gibt.

Außer wenn man unter DX10 nur mit Vec2 oder größer 2 gearbeitet wird, dann wäre es zumindest bedingt DX abhängig, ich wüsste aber nix was einen Programmierer davon abhalten würde die auch unter DX9 zu tun. Vllt aufwendiger oder was auch immer, ...
 
Zuletzt bearbeitet:
Die Vorgänger der G80 hatten alle mehr Takt und waren halb so schnell.

ähm nein

7900GTX 650 / 1600 / 48Shader @ 650Mhz
8800GTX 575/ 1800 / 128Shader @ 1350Mhz


und ne 7900GTX ist nicht halb so schnell wie ne G80 ;)

ist jetzt etwas vereinfacht mit den Shadern, aber in allen bereichen wurde beim G80 deutlich aufgestockt
 
Zuletzt bearbeitet:
viel mehr ist die frage, ob man vec5 überhaupt braucht. und das hängt auch mehr vom compiler ab als vom programmierer.
 
Das kommt wohl nicht auf DX9 oder 10 an, wie viele Opterationen pro Takt ausgeführt werden können. Sondern eher darau wie die Gamehersteller ihre Games programmieren. Mit Spieleprogrammierung kenne ich mich nicht so gut aus, aber ich behaupte mal das es da keinen großen Unterschied gibt.

Außer wenn man unter DX10 nur mit Vec2 oder größer 2 gearbeitet wird, dann wäre es zumindest bedingt DX abhängig, ich wüsste aber nix was einen Programmierer davon abhalten würde die auch unter DX9 zu tun. Vllt aufwendiger oder was auch immer, ...

Darf ich mal eins offen fragen ? ist rein objektiv !

Welche Firma produziert eine Grafikkarte die in aktuellen Gamez recht sagen wir mal gemütlich ist, und aber ja in Zukunft total abrockt ?

So ein Unsinn ! Da würden die sich ja selber ins Bein schießen.

Entweder ist die R600 aktuell konkurrenzfähig, oder sie ist es nicht.

Was in 3-4 Monaten ist interessiert keine und so schlau ist ATI ja wohl schon lange das die das auch wissen bzw. nicht ne Karte rausbringen die "nur" in DX10 losrennt.

Bin so tierisch gespannt auf das Free FSAA. Das könnte ich zur Zeit nämlich echt gut gebrauchen :)
 
reine Vec5 - noch nicht, desshalb wurde ja spekuliert, dass beim R600 eine Vec5 Einheit gleichzeitig einen 3(und kleiner) so wie einen 2(und kleiner) abarbeiten kann. Wäre das nicht der Fall wäre der R600 ein effizienz monster, aus halb so vielen ~40% langsamer getakteten Shadern ähnliche Performance zu bringen... und das wäre "etwas" zu heftig


@ annixp
nur wenn der R600 der finale Stein dieser Architektur sein soll, wenn sein nachfolger auf diese Architektur setzten kann ohne großartige änderungen macht es sinn ;)
der R300 wurden beim Design des R420 nahezu übernommen...
und wir wollen nicht vergessen sollten die Benchs stimmen ist die XT auch nicht gerade langsam ;)
 
Zuletzt bearbeitet:
Fdsonne schrieb:
und dreimal darfst du Raten von welchen Personen das kommt, nämlich von dehnen die ne NV Graka im Rechner haben.
Also würden diese Leute irgendwie ihren Kauf oder die Karte in Schutz nehmen müssen.

du geht das ganze falsch an. Die Kritiker hier haben meist ganz sicher einen G80.
und sie kritisieren hier nicht weil sie ihren kauf rechtfertigen wollen( das brauchen sie nähmlich nicht. es gibt ja nichts schnelleres), sondern erwarten halt mehr als andere von ATI. Was auch nicht vergessen werden darf, ist die besonderheit vieler G80 besitzer.
Es handelt sich meist um user, welche auch schon mehr als nur eine GFX pro jahr haben und dadurch viel erfahrung haben.

und dann kommen andere, welche diese G80 user dann abstempelen. Denn wie kann es nur sein das sie den R600 kritisieren? Wohl nicht weil sie einen schwachen R600 haben wollen und liebesbriefe an NV schreiben. sie wollen eine noch schnellere Grafikkarte haben.
Ich zähle mich übrigens auch zu dieser Gruppe.

Bin so tierisch gespannt auf das Free FSAA. Das könnte ich zur Zeit nämlich echt gut gebrauchen
Ich hoffe doch. da könnt der R600 wieder aufschliessen.
 
Zuletzt bearbeitet:
naja das ganze hat schon noch was mit DX zu tun, jedenfalls mit dem Compiler.
Kann durchaus sein, dass einfache Berechnungen zu komplexeren(>3 Dimensionalen) Matrizen zusammengefasst werden, um rein mathematisch weniger rechenoperationen durchzuführen bzw weniger Speicher auszulasten.

eine andere Frage:
ohne jetzt einen neuen ATI/nv fanwar auszulösen, aber was haltet ihr vom idle Verbrauch der r600 und 8800 gtx im Bezug auf die Architektur?
Hat der g80 da einen Vorteil, weil der shader Takt entkoppelt ist und ordentlich gesenkt werden kann oder ist ATI mit nur 16 MTU's sparsamer?
 
es gibt ja noch keine infos zum idle verbrauch. ich hoffe da leaked bald mal was.
 
@annixp
das stimmt schon, aber ich würde das nicht überstützt sehen. Die Vergangenheit hat gezeigt das sich die Leistungsverhältnisse im Grafikkartenmarkt mit der Zeit sehr schnell verschieben können.
Wie gesagt, ich würde sagen in kommenden Games wird auf diese Vec2 oder größer Operationen gesetzt, somit provitiert ein R600 in zukunft von den Games.
Ich glaube mal der G80 kam viel zu früh in den Augen von ATI, also die haben nicht damit gerechnet das er so schnell kommt und so gut wird.
Nur wenn die Firma nun einmal den Entschluss gefasst hat, und ne Architektur entwurfen hat. Dann beansprucht ne neuplaung extrem viel Zeit, ich denke mal das ATI noch mindestens ne weitere Generation aus der R600 Architektur raus schlägt.
War doch in vergangenheit teilweise auch so, reine Neuentwicklungen wie es der G80 scheint, gibt es ja eher selten. Desshalb denke ich auch das auf Basis dessen noch was kommt (G90 oder G81 oda wie das heißen mag)
 
OMG ANNIXP du bist ja schon genau so wie Piefke.:wall:

Wo du noch dein Cf gespann hattest hast Ati gehypt,jetzt versuchst jede news zu bashen.:wall:

Junge du nerfst mit deiner einsichtigen richtweise!Bist damit das 10 oder 50000 Firmenopfer.........
 
@Sephirot
neja über konstruktive Kritik oder Argumente würde wohl keiner was sagen.
Aber es ist in den vergangenen Tagen eher so gewesen das sobald nur das kleine bisschen Info an die Masse gelangte, dieses wieder schlecht gemacht werden musste.

Ich nenne da nur mal als Beispiel die Sache mit dem 24xAA, was wehement als sowieso unbrauchbar angezweifelt wurde (weil man ab 8x oder 16x sowieso keinen Unterschied mehr sehe) und dann fällt mir noch die Sache mit dem Sound Chip da ein, welcher als unnötig betitelt wurde, weil man ne HighEnd Graka zum zocken brauch und nich zum Video sehen.
Des weiteren kommt mir da noch der Speicher in den Sinn, 512MB seien viel zu wenig, obwohl es technisch ja kein Problem wäre 1GB auf die XT zu bauen usw.


Ich würde es auch sehr enttäuschend finden, wenn wirklich nur ne Leistung zwischen GTS und GTX raus kommen würde, mich lässt aber auch hoffen das die Karte in zukünftigen Games Architurbedingt noch aufschließen kann!
 
Dominator, siehst du den unterschied? er hatte schonmal einen CF 1900 und jetzt ein G80. er kann einen vergleich ziehen und sagen was besser ist.

DU NICHT! und genau das ist dein problem. du bist immer auf ATI seite, aber kannst nicht wirklich vergleichen. das ist wie:

ich finde Korn besser als Wodka, habe Wodka aber noch nie probiert. geschweige denn mehrere Vodka sorten probiert.
Was auch der grund ist warum du meist nicht ernst genommen wirst.
 
Zuletzt bearbeitet:
OMG ANNIXP du bist ja schon genau so wie Piefke.:wall:

Wo du noch dein Cf gespann hattest hast Ati gehypt,jetzt versuchst jede news zu bashen.:wall:

Junge du nerfst mit deiner einsichtigen richtweise!Bist damit das 10 oder 50000 Firmenopfer.........

Dominator ich ignorier dich jetzt einfach ! ich versuch nix zu bashen. Würde mich doch freuen wenn der R600 ne Bombe ist.

Kann immer was schnelleres gebrauchen wie wohl alle hier ;)
Ich glaub du liest immer bloß die nicknames der leute die was posten hier aber den post ansich nicht !

Schade ist nur das wohl bis jetzt kein Chipsatz für den R600 draußen ist der im CF Modus 2x16 PCIe Lanes bietet. Scheinbar bringt die CF Bridge nen ordentlichen Durchsatz, anders kann ich mir das nich erklären.

Der G80 z.B. braucht ja zwingend nen 680i bzw. 2x16 Lanes.

Fällt das NDA jetzt definitiv morgen oder doch erst am 15. ?
 
Ich finds aber gut das HL2 EP2 mitgeliefert wird.
 
Dominator, siehst du den unterschied? er hatte schonmal einen CF 1900 und jetzt ein G80. er kann einen vergleich ziehen und sagen was besser ist.

DU NICHT! und genau das ist dein problem. du bist immer auf ATI seite, aber kannst nicht wirklich vergleich. das ist wie:

ich finde Korn besser als Wodka, habe Wodka aber noch nie probiert. geschweige denn mehrere Vodka sorten probiert.
Was auch der grund ist warum du meist nicht ernst genommen wirst.


Das hast Du aber schön gesagt :)

Es gibt auch von den Usern die hier ganz eifrig am diskutieren sind -
ne 9800Pro am Start haben - und über Bildqualität diskutieren :)

Okay ... ich schlage in diesselbe Kerbe - und wie immer als Anhang -
zwischen "nutzbarer" und "möglicher" Bildqualität muss man absolut
differenzieren.

Greetz Koyote008
 
me too ich will endlich TF2! ^^

also ich werden den R600 auf jeden fall testen. ich hoffe auf verfügbarkeit zum release
 
nein, das wird ein steam gutschein wo man sich die sachen quasi freischlaten kann. genau wie beim 9600XT/9800 XT release
 
Das hast Du aber schön gesagt :)

Es gibt auch von den Usern die hier ganz eifrig am diskutieren sind -
ne 9800Pro am Start haben - und über Bildqualität diskutieren :)

Okay ... ich schlage in diesselbe Kerbe - und wie immer als Anhang -
zwischen "nutzbarer" und "möglicher" Bildqualität muss man absolut
differenzieren.

Greetz Koyote008
Nicht nur das. Auch zwischen möglicher und sinnvoller Bildqualität.

Es gibt Leute die glauben man braucht 16x oder 24x AA und hohe Auflösungen. Ersaunlicherweise fallen die wieder diese Leute darunter die nur eine "alte" Karte verwenden.

Ich zocke @1920x1200 und alles über 4xAA ist reine Spielerei.
Klar kann ich mir einbilden ich bräuchte mehr aber wer wirklich zockt - und nein 3dmark ist kein Spiel!!! - der wird nie einen Unterschied sehen.
Selbst 4x AA ist bei vielen Spielen bei einer so hohen Auflösung nicht immer wichtig. Es gibt aber schon Games wo es schon auffällt.

Viele Leute verlieren den reellen Nutzen total aus dem Auge bzw haben keine Ahnung weil sie von der Hardware nur auf Newsseiten lesen.
 
Bei deiner Auflösung reicht auch 2xAA, bei 1280x1024 sehe ich ab 4xAA keinen Unterschied mehr.Da muss man schon an den richtigen Stellen such und mehrfach vergleichen um nen Unterschied zu sehen.

Mir persönlich würde aber auch 2xAA bei 1280x1024 ausreichen, da ich spiele und keine Standbilder betrachte.
 
da ist jeder anders. ich brauche eigentlich schon 1680 4AA 16 AF. bald 1920 4AA
 
Naja also beim spielen seh ich da keinen Unterschied, besonders bei nem TFT.Bei meiner Röhre war das ander´s da war´s wirklich zu sehen.Aber auch da galt mehr als 4xAA hat keinen wirklich sichtbaren Unterschied gebracht.

Bei AF find ich alles über 8xAF überflüssig, obwohl ich auch 16x drin hab.Nen Unterschied seh ich nicht.
Viel ist auch Einbildung, umso mehr man drin hat umso besser muss es ja aussehn.
Hängt aber auch sehr von der grösse der Bildschirme ab.
 
nein, das wird ein steam gutschein wo man sich die sachen quasi freischlaten kann. genau wie beim 9600XT/9800 XT release

wäre ne nette dreingabe, wobei ich es wohl besser finden würde, wenn es auch Karten ohne Gutschein gibt, die dann aber 30-40€ günstiger wären, das Game soll ja erst sonstwann spät kommen, somit kann man es immernoch später zukaufen wenn man es unbedingt haben möchte!
 
einbildung würde ich das nicht nennen. aber ich will hier jetzt auch keine grundsatz diskussion anfangen;)

ist eigentlich schon bekannt ob der 14. ein hardlaunch wird?

wäre ne nette dreingabe, wobei ich es wohl besser finden würde, wenn es auch Karten ohne Gutschein gibt, die dann aber 30-40€ günstiger wären, das Game soll ja erst sonstwann spät kommen, somit kann man es immernoch später zukaufen wenn man es unbedingt haben möchte!

das macht die karte ganz sicher nicht viel teuere;) sieh es als bonus
 
Also bei Rennspielen zum Beispiel kann die AA Einstellung sehr wichtig sein, wenn es um die Darstellungen von Leitplanken und Streckenrandmarkierungen geht.
Oft bekommt man nur bei höchsten Einstellungen das Flimmern weg.
Auch die hohe AF Einstellungen sind hier sehr wichtig, damit die Strecke nicht im Pixelmatsch verschwindet.
Ich behaupte nach vielen Spielstunden, dass hier hohe Einstellungen sehr wohl sichtbar sind und den Unterschied zwischen einem durchschnittlichen und einem erstklassigen Spielerlebnis ausmachen.
Wer schon man die Nordschleife in der Tourist Version bei GTR2 gefahren ist, weiss was ich meine.
 
Zwischen TFT und Röhre muss man schon unterscheiden ....

1280x1024 bis 8xAA sichtbar - zumindest noch bei einigen Games
1600x1200 bis 4xAA sichtbar

Ergo - bei meiner Röhre und 1280x1024 sind 4xAA absolut Pflicht -
bis 8xAA ist schon nett - drüber hinaus für mich unbrauchbar.

Greetz Koyote008
 
Zuletzt bearbeitet:
Finde vor allem beim Wasser und der Kiste is der Unterschied stark zu erkennen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh