ATI Radeon HD4000 (R700) - [Speku-, News- & Sammelthread] (Part1)

Status
Für weitere Antworten geschlossen.
Alles rund um die ATI Radeon HD4000 Grafikkartenserie

Vorraussichtliche technische Daten:
HD 4870 (RV770XT), 55 nm, 850 MHz Chiptakt, 1050 MHz Shaderdomain, 1935 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 1008 GFlops, 27.200 MT/s, 256 Bit Speicherinterface, 1024 MiB GDDR5, 123,8 GB/s Speicherbandbreite, 150 W TDP, $349 MSPR, Release Mai 2008

HD 4850 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1728 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 512 MiB GDDR5, 110,5 GB/s Speicherbandbreite, 110 W TDP, $269 MSPR, Release Mai 2008

HD 4850 GDDR3 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1143 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 256/512 MiB GDDR3, 73,2 GB/s Speicherbandbreite, 110 W TDP

Quelle: Hartware.de

NEWS:
More RV770 and RV770X2 details

Die shrink with minor changes
ATI said a few things about its new upcoming RV770 chips, and as we've said before you can expect [...]
weiterlesen

RV770 will do GDDR 5 and GDDR3

Two flavours
We’ve learned that single chip RV770 card comes in two flavours. The first one [...]
weiterlesen

RV770XT supports 512-bit memory

Despite the claims
A German Website posted an interesting article with a lot of RV770XT and PRO specs, but [...]
weiterlesen

R700 to launch close to Computex

Or around, at leastRV770 chips are looking good and the highest end R700 based product might launch around Computex (starts at June 3 2008). We believe [...]
weiterlesen


RV770 is already in production
Test one
We learned
that the RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone [...]
weiterlesen

Wer noch interessante Links hat, bitte per PN an mich weiterleiten!


 
Zuletzt bearbeitet:
@Lord
Die Shader Pipeline gehört aber nun mal zur Architektur bzw. ist mittlerweile eine der wichtigsten, wenn nicht sogar die zentrale Einheit. GPGPU setzt zB ausschliesslich auf Shaderleistung. Und hier hat nVidia eben eine skalare Pipeline, ATI hingegen eine superskalare.
TMUs sind, wie der Name schon sagte, ausschliesslich fürs Mapping verantwortlich. Das dynamische Erzeugen solcher Maps bzw. Texturen mittels Shader ist nur der Anfang von dem, wovon ich sprach. Sollte sich Raytracing auch in Echtzeitszenarien durchsetzen, werden Textureinheiten in der heutigen Form wohl sogar ganz aussterben.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Mr. Dude: Du willst es nicht verstehen, scheint mir. Das, was du bei ATI als "Superskalarität" bezeichnest, bringt dort rein gar nichts (vorteilstechnisch). Superskalarität meint Instruction Level Parallelism und den haben BEIDE Hersteller.
Auch bei den TMUs redest du an mir vorbei. Was du dazu sagst, ist zwar richtig, hat aber mit dem, was ich sagte, nichts zu tun. Und ich prognostiziere mal: Whitted Ray Tracing wird sich nie im RT-Rendering durchsetzen. Diese Frage finde ich ohnehin wahnsinnig spannend. :d
 
Zuletzt bearbeitet:
@Mr. Dude: Du willst es nicht verstehen, scheint mir. Das, was du bei ATI als "Superskalarität" bezeichnest, bringt dort rein gar nichts (vorteilstechnisch). Superskalarität meint Instruction Level Parallelism und den haben BEIDE Hersteller.
Auf Shader Ebene hat nVidia keine "Superskalarität". Um es mal auf x86 CPUs zu übertragen, das ist so, wie wenn nVidia mehr Kerne und höhere Taktraten hat, dafür aber lediglich eine x87 und keine SIMD (SSE) Pipeline. Und mit höheren Taktraten kann nVidia momentan ja noch Vorteile bieten. Aber was glaubst du wohl, ist effizienter? 5 Personen in einem Pkw von A nach B zu fahren? Oder jeweils eine Person nach und nach mit 5 Pkws von A nach B zu fahren? Und 4- bzw. 5-dimensionale Streamprozessoren bieten sich bei den Aufgaben, nämlich (x,y,z,w) oder (r,g,b,a) Vektoren zu verarbeiten, ja geradezu an. Glaube es mir oder nicht, nVidia wird diesen Schritt hin zu superskalaren Streamprozessoren früher oder später wohl genauso machen.

Auch bei den TMUs redest du an mir vorbei.
Und was wolltest du mir dann damit sagen?
 
Wäre schon richtig, wenn es denn nur 4-dimensionale Vektoren zu verarbeiten gäbe. Dann wäre wohl die Auslastung grandios, nur leider ist sie das nicht. Weiterhin ist deine Darstellung etwas einseitig: Sie scheint zu zeigen, dass ATi schneller ist, was nicht stimmt - Ati stellt mit ihren Shadercores 4 Werte in einem Takt fertig, NVidia 16 Werte in 4 Takten. Was davon effizienter ist, zeigt die Gegenwart.
Ob NV diesen Schritt nun geht oder nicht, ist mir eigentlich egal, denn ich bin mir ziemlich sicher, dass die Datenfülle in Zukunft eher größer und nicht beschränkt auf vier Komponenten sein wird.
Thema Texturen: Du erzähltest was von der Möglichkeit, neue Texturdaten mittels ALU-Berechnungen zu erzeugen - Render-to-texture eben. Dass es das gibt (und dass das mehr wird), habe ich nie angezweifelt. Ich sprach aber vorher lediglich davon, dass die Möglichkeit, mehr Rohdaten einzugeben (über vorgefertigte Texturen und damit TMUs) sicher keinen Entwickler böse macht, denn - wie du selbst bereits festgestellt hast - braucht man die Shaderleistung für so viele andere Dinge, dass alles, was man bereits vor dem eigentlichen Rendervorgang fertig haben kann (Texturen), auch fertig sein sollte.
Thematische Frage: Sind die aktuellen GPUs eigentlich in der Lage, nach einem Render-to-texture-Vorgang die neuen Texturdaten direkt wieder ins Shader Front End zu speisen oder muss aus den dynamisch erzeugten Texturen erneut gesampled werden? Wenn das der Fall ist, spricht das nur erneut für mein Plädoyer zugunsten stärkerer TMUs.

Gruß
 
Das ist die große Frage - wobei der RV670 eigentlich nicht füllratenlimitiert auf Pixelseite war. Eine höhere Texelleistung würde ihm wohl eher gut tun.
 
Zuletzt bearbeitet:
Wie würde denn die optimale, aber auch machbare R700-Architektur aussehen, wenn man den R600 als Ausgangspunkt sieht?
 
Dann wäre wohl die Auslastung grandios, nur leider ist sie das nicht.
Also wenn ich mir die Flops Leistung anschaue, und dazu noch die Nachteile von ATI bei der Textureleistung hinzurechne, scheint mir die Auslastung absolut iO zu sein, oder zumindest nicht schlechter als bei nVidia. Hinzu kommt, dass die Streamprozessoren bei ATI ja ebenfalls wie bei nVidia skalar arbeiten können, sofern die Berechnungen unabhängig voneinander sind. Leerlaufen muss theoretisch also erstmal nichts. Das ist letztendlich auch eine Frage der Treiberoptimierung.

Weiterhin ist deine Darstellung etwas einseitig: Sie scheint zu zeigen, dass ATi schneller ist, was nicht stimmt
Nein, das scheint nicht. Du solltest vielleicht nochmal genauer lesen. Ich habe zB explizit erwähnt
Und mit höheren Taktraten kann nVidia momentan ja noch Vorteile bieten.

Ati stellt mit ihren Shadercores 4 Werte in einem Takt fertig, NVidia 16 Werte in 4 Takten.
Muss man das verstehen? Wie berechnest du denn die Anzahl dieser "Werte"?

Ich sprach aber vorher lediglich davon, dass die Möglichkeit, mehr Rohdaten einzugeben (über vorgefertigte Texturen und damit TMUs) sicher keinen Entwickler böse macht, denn - wie du selbst bereits festgestellt hast - braucht man die Shaderleistung für so viele andere Dinge, dass alles, was man bereits vor dem eigentlichen Rendervorgang fertig haben kann (Texturen), auch fertig sein sollte.
Letztendlich ist das eine Frage der Ausgewogenheit. Auf was kann ich eher verzichten, Leistung oder Datenvolumen? Beides wird auch in Zukunft steigen. Allerdings ist Datenvolumen kritischer, immerhin hängt die komplette Infrastruktur da dran. Was nutzen mir die grössten Speicher oder schnellsten Caches, wenn es trotzdem zu Engpässen kommen kann, weil die Festplatte zu lahm ist? Hinzu kommt, dass wir für die reine Grafikberechnung schon heute ziemlich nahe am Realismus sind. Da bleibt nur noch wenig Spielraum nach oben. Die Notwendigkeit der Shaderleistung wird im Gegensatz dazu aber auch in Zukunft nicht stagnieren. GPGPU oder PPU sind hier nur zwei Beispiele. All das spricht eher dafür, dass sich das Verhältnis von Shader- und Textureleistung auch in Zukunft weiter Richtung Shader verschiebt. Dazu sollte man auch mal einen Blick über den Tellerrand werfen. Aktuelle Rasterisierer sind mit Sicherheit nicht das Ende der Fahnenstange.

Thematische Frage: Sind die aktuellen GPUs eigentlich in der Lage, nach einem Render-to-texture-Vorgang die neuen Texturdaten direkt wieder ins Shader Front End zu speisen oder muss aus den dynamisch erzeugten Texturen erneut gesampled werden?
Wieso erneut? Wann sollen sie denn vorher gesampled worden sein?
 
Alle Werte, die der Shader verarbeitet, sind bereits gesampled worden - die kommen ja nicht aus dem Nichts. Ob sie nun aus einer Textur stammen oder Geometriefarbwerte sind, spielt keine Rolle.

Du beziehst dich mMn zu viel auf GPGPU und derartige Ansätze. Dabei vergisst du, dass der Teil der Käufer von solchen Highendkarten (bzw zB den Tesla-Ablegern), der damit primär GPGPU-Berechnungen durchführen will, recht gering ist. Die Karten werden nicht in erster Linie dafür entwickelt. Deswegen ist das - zumindest, was meine Erfahrungen in Gesprächen mit Entwicklern gezeigt haben - nicht die oberste Priorität bei der Entwicklung neuer GPUs, sondern weiterhin Spiele. Und die profitieren eben, wie ich bereits sagte, nicht nur von mehr Shaderpower, sondern auch von mehr Texelleistung, wie der G80-Ansatz auf grandiose Weise gezeigt hat. Letztlich sind wir uns aber irgendwie doch einig, denn dass die Shaderleistung bedeutend stärker ansteigen muss als die Texelleistung, ist einfach Fakt. Ich sage zusätzlich nur, dass wir uns keine Stagnation auf derzeitigem Performanceniveau beim textursamplen leisten können.

Thema Ati schneller, Nvidia schneller: Genau das ist ja, was ich meinte; deine Darstellung zeigt, dass Nvidias Performancevorteile nur über den höheren Takt kommen, was nicht ganz meiner Auffassung entspricht, wie ich ja schon dargelegt habe - zweifelsohne hat ATi mehr Shader (das sieht vermutlich jeder Depp), nur ist deren Auslastung ein wirklich kritischer Punkt. Dass das am Softwareentwickler liegen mag, ist durchaus möglich, aber löst das Problem auch bloß nicht. ;)

Die Berechnung da oben sollte lediglich den Unterschied in den beiden Ansätzen aufzeigen: Ati berechnet den kompletten 4-dimensionalen Farbvektor eines Pixels in einem Takt (mit einem Shadercore, wobei wir hier schon wieder übersehen, dass das Ding ja nicht 4D, sondern 5D ist - und damit schon wieder ein Teil der Leistung brachliegt). NVidia berechnet hingegen für 4 Pixel jeweils eine Komponente, was bedeutet, dass die Fertigstellung des Pixels zwar 4 Takte dauert, dafür sind aber auch gleich 3 andere Pixel "nebenbei" fertig. Was besser ist, darüber treffe ich an der Stelle keine Aussage.

Gruß
 
Zuletzt bearbeitet:
ich will ja nich nerven aber ich hab keinen bock mir das hier alles durchzulesen, deshalb wann kommen diese ganzen neuen grafikkarten raus???? ich meine die:
- HD4950XTX PE (R750XT) 2 GiB, 1.050 Mhz/1.500 Mhz, PCB 11 ", TDP 350W (PCI-E 2.0 + 2x8PIN power supply), Texas - X modified version, USD $ 949-999
- HD4950XTX (R750XT) 1 GiB, 950 Mhz/1.500 Mhz, PCB 11", TDP 300W (PCI-E 2.0 + 2x8PIN power supply), Texas - X modified version, USD $899-949

- HD4950XT PE (R750GT) 1,5 GiB, 1.050Mhz/1.500 Mhz, PCB 10.5 ", TDP 250W (PCI-E2.0 + 8PIN power supply), 2900 radiator four low-speed version, USD $ 499-549
- HD4950XT (R750GT) 768 MiB, 1.000Mhz/1.500 Mhz, PCB 10.5", TDP 220W (PCI-E2.0 + 8PIN),2900 radiator four low-speed version, USD $449-499
- HD4900XTX (R700XT) 1 GiB, 1.000Mhz/1.200 Mhz , PCB 9", TDP 150W (PCI-E 2.0 + 6PIN), 2950XT radiator, USD $399-449
- HD4900XT (R700XT) 512 MiB, 900Mhz/1.200Mhz, PCB 9", TDP 125W (PCI-E 2.0 + 6PIN), 2950XT radiator, USD $349-399
- HD4900PRO (R700XT) 512 MiB, 700Mhz/1.200Mhz, PCB 9", TDP 100W (PCI-E 1.1/2.0 + 6PIN), single slot cooling, USD $249
 
Zuletzt bearbeitet:
Uralt und vermutlich nichtmal ansatzweise der Realität entsprechend. ;)
 
Sagmal, liest du eigentlich? Von diesen Grafikkarten wird NICHT EINE überhaupt existieren.
 
Ich bin mal gespannt wie die Preise der neuen Gen. aussehen werden, hoffentlich "ähneln" Sie den Preisen der HD3870X2, also das Sie trotz der hervoragenden Leistung nicht extrem teuer sind.

MfG,
chrissi
 
Alle Werte, die der Shader verarbeitet, sind bereits gesampled worden
Wenn die Shader eine dynamische Textur erzeugen, zB mittels vordefinierter Algorithmen, kann vorher nichts gesampled werden. Schliesslich ist noch gar nichts vorhanden. Gesampled kann nur dort werden, wo bereits etwas vorhanden ist. Aber wenn wir darüber diskutieren wollen, drehen wir uns nur im Kreis.

Du beziehst dich mMn zu viel auf GPGPU und derartige Ansätze. Dabei vergisst du, dass der Teil der Käufer von solchen Highendkarten (bzw zB den Tesla-Ablegern), der damit primär GPGPU-Berechnungen durchführen will, recht gering ist.
GPGPU oder PPU sind nur zwei Beispiele. Niemand kann abschätzen, was in Zukunft eventuell noch auf uns zukommt oder gar erforderlich sein wird. Es zeigt nur, dass das Potenzial zweifelsohne gegen ist. Raytracing braucht zB auch Rechenleistung ohne Ende. Übrigens, der Teil der Käufer solcher High-End Karten ist genauso gering. Intel ist bei GPUs schliesslich auch nicht Marktführer, weil sie so potente Chips haben.

Letztlich sind wir uns aber irgendwie doch einig, denn dass die Shaderleistung bedeutend stärker ansteigen muss als die Texelleistung, ist einfach Fakt. Ich sage zusätzlich nur, dass wir uns keine Stagnation auf derzeitigem Performanceniveau beim textursamplen leisten können.
Wie ich schon sagte, momentan ist Textureleistung noch erforderlich. Aber warte mal ab. MMn wird das in Zukunft mehr und mehr stagnieren.

Thema Ati schneller, Nvidia schneller: Genau das ist ja, was ich meinte; deine Darstellung zeigt, dass Nvidias Performancevorteile nur über den höheren Takt kommen, was nicht ganz meiner Auffassung entspricht, wie ich ja schon dargelegt habe - zweifelsohne hat ATi mehr Shader (das sieht vermutlich jeder Depp), nur ist deren Auslastung ein wirklich kritischer Punkt.
Selbst in der Theorie ist das nicht wirklich kritisch. Denn schliesslich können die Streamprozessoren genauso skalar arbeiten wie bei nVidia. Und wie man sieht, in der Praxis ist die Auslastung auch weniger ein Problem. Die Schwächen liegen an ganz anderen Stellen.

Die Berechnung da oben sollte lediglich den Unterschied in den beiden Ansätzen aufzeigen: Ati berechnet den kompletten 4-dimensionalen Farbvektor eines Pixels in einem Takt (mit einem Shadercore, wobei wir hier schon wieder übersehen, dass das Ding ja nicht 4D, sondern 5D ist - und damit schon wieder ein Teil der Leistung brachliegt). NVidia berechnet hingegen für 4 Pixel jeweils eine Komponente, was bedeutet, dass die Fertigstellung des Pixels zwar 4 Takte dauert, dafür sind aber auch gleich 3 andere Pixel "nebenbei" fertig.
Dein Berechnungssystem hat nur leider einige grundlegende Fehler. Der 5. Streamprozessor bei ATI liegt zB nicht einfach brach. Der kann ua spezielle Funktionen übernehmen, wie Sinus. Oder einfach eine skalare Berechnung. So können die 5. Streamprozessoren von 4 Shadern letztendlich auch einen Farbwert berechnen. Deine Herangehensweise ist zudem falsch. nVidia kann genauso 4 Werte in einem Takt fertig stellen. Entscheidend sind ausschliesslich die Streamprozessoren. Und hier kann ATI mit den 5-dimensionalen Shadern eben eine wesentlich grössere Anzahl bieten. Und damit ist der Output pro Takt auch wesentlich grösser. Ob wir nun einen Zeitraum von einem oder vier Takten betrachten, ist dabei vollkommen irrelevant. Kompensieren kann nVidia das einzig und allein durch höhere Taktraten. Nur halte ich das einfach für das schwächere Konzept. Dass sowas schief gehen kann, haben wir ja bei Netburst gesehen.
 
Ich freu mich auch schon drauf^^.
Ich fänds besser, wenn ATI ihre NetGen-GraKa vor NV auf den Markt bringen würde. Dann könnten sich die NV-Leute die Zähne an dem ATI-Monster ausbeißen:d
 
Also nochmals langsam:

-RV770 ist nextGen und kommt Ende 2008/Anfang2009...
-R700 ist Refresh of refresh und kommt im Sommer...

Oder?
 
:d Ich verstand nicht richtig, ob der r700 nun ein Refresh des rv670 wird, welcher ja ein Refresh des R600 ist...

Refreshen ist so eine Sache...:d
 
Zuletzt bearbeitet:
mir geht das ganze refreshen total aufn ....! die könnten ruhig mal neue gen. aufn markt bringen! die mehr leistung vom rv670 zum r600 ist ja wirklich minimal!
 
Wenn man den kursierenden Specs der R700 glauben darf, dann kann es nicht nur ein Refresh des 670 sein. Schon allein aus der theroretischen Leistung, die der R700 vermitteln mag, ist es weider eine andere Liga.
 
Ich war mir nur nicht ganz sicher! Von den vorhergehenden Post und News war es praktisch eindeutig, dass der r700 in Form des rv770 im sommer 2008 herauskommen wird. nur habe ich diese New (news in Einzahl:d??) nicht richtig verstanden.
Vorallem wegen den Erscheinungsdaten wurde ich unsicher - bislang hiess es Sommer und hier steht nun leider Q3 oder Q4... in meinem letzten Post habe ich das falsch ausgedrückt... ich wollte nicht damit sagen, es werde ein Refresh!
 
Also nochmals langsam:

-RV770 ist nextGen und kommt Ende 2008/Anfang2009...
-R700 ist Refresh of refresh und kommt im Sommer...
Der RV770 ist ein Derivat der Chipgeneration, die allgemein als R700 bezeichnet wird. R700 ist also der Nachfolger der R600 Generation und damit mehr als ein Refresh, wie zB der RV670, der ja immer noch auf dem R600 basiert. Es wird darüber hinaus noch weitere Derivate geben. So wird die Dual-GPU Lösung, welche bisher als R680 geführt wird, zukünftig auf den Codenamen R700XT hören. Etwas verwirrend ist, dass diese Dual-GPU von einigen Leuten auch als R700 bezeichnet wird. Das ist vermutlich aber nicht der finale Codename. Dann eher noch R780. Für eine genaue Auflistung würde ich dir empfehlen, mal bei Wikipedia vorbeizuschauen.
Geplant sind die HD4000 Grafikkarten für Mitte des Jahres. Vor dem 3. Quartal wird man aber vermutlich keine kaufen können.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh