ATi R600/RV6xx *Infothread* (Part 2)

Status
Für weitere Antworten geschlossen.
Lord, kannst du mir mal beispiele für geometrie Shader geben? immerhin wurden sie ja bis jetzt nicht genutzt. Deswegen kann ich mir gerade schlecht ein bild dazu machen.

man sieht doch relativ deutchlich das der 16xCF AA besser zu sein scheint als das nv pendant auf der gf8..

warte lieber auf ingame bilder mit so einer aussage. Da ja geblurt wird, dürften die texturen in reichweite nicht die schönsten sein.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
so, bin jetzt auch wieder online nach einer 10Tage Pause und was finde ich in dem R600 Thread??? > 50! Seiten posts und der erste Beitrag wird nicht geupdatet. Kann mir vieleicht jemand sagen ob es schon was neues gibt.
mfg und danke

eigentlich hast du nichts verpasst. in 2 wochen wissen wir mehr. eben gibt es nur unsichere benchmarks, die immer irgend eine ungereimtheit haben.
 
@Sephirot: Geometry Shader arbeiten anders als Vertex Shader nicht immer mit 3 Vertices (für ein Polygon/Dreieck), sondern können auch mit 2 (für eine Linie) oder mit einem (als Punkt) kalkulieren und bestehende Primitive so variieren oder vervielfachen. Als offensichtlichen Nutzen könnte ich mir gerade Echtzeit-Terraforming vorstellen, aber da geht sicher noch einiges mehr als nur das - ich bin nur leider nicht kompetent genug, um mir unter (z.B.) "Point Sprite Expansion" was Handfestes in einem Spiel vorzustellen.

gruß
Lord

€dit: Wenn ich mir das genauer überlege, verstehe ich jedoch nicht, warum derartige Geometrieberechnungen mehr als dreidimensional sein sollen (sagte TCS nicht irgendwo was von 5D?). Sollte einer in der Lage dazu sein, bitte ich um Aufklärung.
 
Zuletzt bearbeitet:
Wo ist der Unterschied bei Dominators Bildern? :hmm: Nur die dämliche Vergrößerung? Warum lässt man das CFAA nicht gegen vergleichbare AA-Levels auf dem G80 antreten? So, wie es da ist, zeigen die Aufnahmen nicht sonderlich viel.
 
Zuletzt bearbeitet:
gammakorregiert und transparenz @SS?

csaa ist ja der non Q oder?
 
Ich möcht fast wetten, dass der chip deshalb so hoch taktet soll weil der sonst von der g80 platt gemacht werden würde.. Ich gehe also von einer Taktsteigerung aus, die so hoch ausgefallen ist zum grundtakt das die Jungens vorallem irgendwie schwierigkeiten bekommen haben zu garantieren das die Karte so lange genug hält meine Theorie zur theorie
hängt einfach mal damit zusammen wie die Architektur ausschaut bzw. wie jeder an die Sache heran gegangen ist. Aber wie sich dass dann in der Prxis auswirkt dass kann man zZt. nur erahnen. Es wird ganz bestimmt wieder Anwendungen geben da ist mal der R600 vorne und dann wieder der G80. Aber in Bezug auf halten: die "Halbwertszeit" des R600 wird verdammt kurz sein, denn wenn man mal bendenkt dass nVidia bald einen g80 Refresh oder sogar den G90 herausbringt......
 
Eigentlich wäre das ja wohl geil, eine Karte, die DX9 wie DX10 mainstream super packt und dann bei komplexen DX10-Titeln, wo's wirklich drauf ankommt, echte Vorteile besitzt, zu einem sehr konkurrenzfähigen Preis :love:

Dann noch ein kleines funzendes Proggi, um in 2D 'runterzutakten/'runterzuvolten, am besten gleich mitgeliefert (gibt's ja, hab' grad vergessen, wie es heisst), und die Sache ist geritzt würd' ich sagen :xmas: ;)

In der nächsten Generation würde ich mir aber Stromsparfeatures in HW wünschen... (gell AMD??)

Edit: War ja auch schon bei den 1950ern so, dass nVidia bei den alten Titeln wie UT2004 und auch 3DM05/06 usw. teilweise schneller war, hinterher hats aber keinen mehr gekratzt, als die shaderlastigen Sachen immer mehr wurden... Da war ATI dann fast ungeschlagen an der Spitze. Könnte jetzt gut und gern wieder so kommen tendenziell...
 
Zuletzt bearbeitet:
Ich möcht fast wetten, dass der chip deshalb so hoch taktet soll weil der sonst von der g80 platt gemacht werden würde.. Ich gehe also von einer Taktsteigerung aus, die so hoch ausgefallen ist zum grundtakt das die Jungens vorallem irgendwie schwierigkeiten bekommen haben zu garantieren das die Karte so lange genug hält meine Theorie zur theorie
hängt einfach mal damit zusammen wie die Architektur ausschaut bzw. wie jeder an die Sache heran gegangen ist. Aber wie sich dass dann in der Prxis auswirkt dass kann man zZt. nur erahnen. Es wird ganz bestimmt wieder Anwendungen geben da ist mal der R600 vorne und dann wieder der G80. Aber in Bezug auf halten: die "Halbwertszeit" des R600 wird verdammt kurz sein, denn wenn man mal bendenkt dass nVidia bald einen g80 Refresh oder sogar den G90 herausbringt......
Die ATI Karten sind immer höher getaktet.
 
Weil sie eine andere Architektur habe..

NV mehr einheiten, weniger Takt. ATI weniger einheiten, höherer Takt.

Siehe R520,580 usw...

Gruß
 
Der G71 hatte doch zu Beginn auch ein paar Vorteile, in älteren, non shaderlimitierenden Games, da er mehr Füllrate hat als der R580.
 
Shader Takt der Ultra liegt bei 1500MHz und hat 0,8ns Speicher. Sie soll sehr gut übertaktbar sein und die 700/2400MHz erreichen. Das wahrs wohl mit dem R600 für mich ;)

G80 160Shader mit 1500MHz = 320
R600 64Shader 5D mit 750MHz = 320
;)

:btt:
 
@ PCZeus: Nee, sondern damit die Karten dann auch Performancemäßig Vorteile haben.

Im übrigen kommt auch nVidia um Takt nicht herum bei den High-End Modellen. Die 7900GTX hatte auch 650+50 Geotakt, also soviel wie die x1950xtx auch + höherer geotakt, und also fast soviel wie die ATI jetzt bekommt.
 
Dural schrieb:
G80 160Shader mit 1500MHz = 320
R600 64Shader 5D mit 750MHz = 320
So einfach kann man es sich natürlich auch machen ... ;)

Allerdings ergibt so eine Rechnung keinen Sinn.

z.B.:
http://www.computerbase.de/artikel/...900_gt_7900_gtx/2/#abschnitt_technische_daten

7900GTX -> 24 Pixel-Pipelines und 2 Shader-Einheiten pro Pipeline -> "48 Shader-Einheiten"
Takt: 650/800MHz

X1900XTX -> 16 Pixel-Pipelines und 3 Shader-Einheiten pro Pipeline -> "48 Shader-Einheiten"
Takt: 650/775MHz

Trotzdem ist die ATI Karten der Nvidia Karte bei neuen (shaderlastigen) Spielen, haushoch überlegen ... :)

Daher: Abwarten! :coolblue:
 
Zuletzt bearbeitet:
Trotzdem ist die ATI Karten der Nvidia Karte bei neuen (shaderlastigen) Spielen, haushoch überlegen ... :)

Haushoch überlegen? Meinst du damit die 10% oder was? ;)
Der R580 ist jetzt auch nur durch seine Treiber Optimierung schneller, da hat sich beim G71 in den letzten 10Monaten so gut wie nichts getan. Man hat ja schlisslich seit gut 7 Monaten eine DX10 GPU ;)

:btt:
 
Zuletzt bearbeitet:
Haushoch überlegen? Meinst du damit die 10% oder was? ;)
Der R580 ist jetzt auch nur durch seine Treiber Optimierung schneller, da hat sich beim G71 in den letzten 10Monaten so gut wie nichts getan. Man hat ja schlisslich seit gut 7 Monaten eine DX10 GPU ;)

:btt:

Stimmt allerdings, man kann es aber auch anders sehen. Ist es nicht bissl arm das die Dx9 Treiber keine weitere Optimierung erhalten haben? Denn ich bin der Meinung das der G71 noch nicht vollkommen Ausgereizt ist und ohne große Problem dem R580 ebenbürtig wäre/ist.
__

Werden dann wöchentlich 6000 Karten +% Anstieg der Produktivität erhältlich?

Hoffe mal das am 13. 23:59;59 +1sek. massenhaft seiten Benchmarks posten :d
 
Die Benchmarks gibt es, wenn das NDA schon am 2. fällt, auch schon zu diesem Zeitpunkt.
 
Haushoch überlegen? Meinst du damit die 10% oder was? ;)
Der R580 ist jetzt auch nur durch seine Treiber Optimierung schneller, da hat sich beim G71 in den letzten 10Monaten so gut wie nichts getan. Man hat ja schlisslich seit gut 7 Monaten eine DX10 GPU ;)

:btt:

Der R580 ist dem G71 haushoch überlegen, bei shaderlastigen Games, es sind mehr als 10%, vor allem in hohen Auflösungen+AA/AF.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5388331&postcount=3
 
Zuletzt bearbeitet:
Was trägt denn eigentlich dieser Ringbus zu der höheren Perf. der ATI bei? Gibt das wirklich mehr Bandbreite, oder bessere Latenzen, oder wie kann man sich das vorstellen?
 
b2t
em muss ich es jetzt so verstehen.. das die HD2900XT in dx9 anwendung.. ja ca 10% schneller is als ne 8800 gts is..aba in dx10 anwendungen haus hoch überlegen is gegen die 8800gts/gtx
 
Und was hat nVidia in den letzten Monaten so getrieben in Hinsicht auf deren Treiber? Ist nunmal legitim, dass die Treiber optimiert werden.

MfG
 
Klar, Treiber gehört essentiell mit zum Produkt dazu. Sonst kannst es Dir an die Wand hängen^^

Aber wirklich jetzt :btt:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh