ATI Radeon HD4000 (R700) - [Speku-, News- & Sammelthread] (Part1)

Status
Für weitere Antworten geschlossen.
Alles rund um die ATI Radeon HD4000 Grafikkartenserie

Vorraussichtliche technische Daten:
HD 4870 (RV770XT), 55 nm, 850 MHz Chiptakt, 1050 MHz Shaderdomain, 1935 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 1008 GFlops, 27.200 MT/s, 256 Bit Speicherinterface, 1024 MiB GDDR5, 123,8 GB/s Speicherbandbreite, 150 W TDP, $349 MSPR, Release Mai 2008

HD 4850 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1728 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 512 MiB GDDR5, 110,5 GB/s Speicherbandbreite, 110 W TDP, $269 MSPR, Release Mai 2008

HD 4850 GDDR3 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1143 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 256/512 MiB GDDR3, 73,2 GB/s Speicherbandbreite, 110 W TDP

Quelle: Hartware.de

NEWS:
More RV770 and RV770X2 details

Die shrink with minor changes
ATI said a few things about its new upcoming RV770 chips, and as we've said before you can expect [...]
weiterlesen

RV770 will do GDDR 5 and GDDR3

Two flavours
We’ve learned that single chip RV770 card comes in two flavours. The first one [...]
weiterlesen

RV770XT supports 512-bit memory

Despite the claims
A German Website posted an interesting article with a lot of RV770XT and PRO specs, but [...]
weiterlesen

R700 to launch close to Computex

Or around, at leastRV770 chips are looking good and the highest end R700 based product might launch around Computex (starts at June 3 2008). We believe [...]
weiterlesen


RV770 is already in production
Test one
We learned
that the RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone [...]
weiterlesen

Wer noch interessante Links hat, bitte per PN an mich weiterleiten!


 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Macht ja nix find es nur Lustig da Newzhunter mal wieder keine Quelle angibt.
 
auch bei Tweaktown geht die Liste wieder um... (hier)

Der Her unter mir hat es mir geflüstert:banana:
hellseher.jpg

:bigok:
 
Ich glaub fast, dass das die wirklichen Spezifikationen sind, sonst gäbs schon lange etwas neues in dem Sektor, meint ihr nicht auch?
Hoffen wir auf beste Overkill-Karten:teufel:
 
Hi,

schaue auch wie ein verrückter aber nicht´s findet man bzw. neues über die Karten.

Die Karte wird gekauft wenn das alles stimmt :)

Gruß Raberduck
 
Hi,

schaue auch wie ein verrückter aber nicht´s findet man bzw. neues über die Karten.

Die Karte wird gekauft wenn das alles stimmt :)

Gruß Raberduck

Ich war auch immer am Schauen... Und niemand schrieb mehr... Desshalb hab ich n'wenig gepusht...:d



@Christoph1984:

Wieder einmal dasselbe...:bigok:
Naja, schaun wa mal...
 

:hmm: Das wären ja mehr als doppelt so viel Shader als beim kommenden nv GT200:
Gerüchteküche: nVidia GT200


Neuer Grafikchip mit 200 Shader Einheiten & 512bit Speicherschnittstelle?

[...] vermutlich in der zweiten Jahreshälfte kommenden High-End Grafikchip mit dem Codenamen GT200
[...] soll der GT200 über 200 Shader Einheiten (Stream Prozessoren) und eine 512bit breite Speicherschnittstelle verfügen.
Zum Vergleich: der G92 von GeForce 8800 GT und GTS-512 besitzt bis zu 128 Shader Einheiten und ein 256bit RAM-Interface.

Quelle: www.hartware.de
 
Dafür hat er 512-bit SI!:d


Es könnte aber durchaus sein, dass es eigentlich nur 96 Shader, dafür aber 5D shader...

shaderleistung in der sekunde ist ja in etwa so (bin aber nicht ganz sicher...:():
ATI: 5*96*775mhz = 372'000 (3870)
nVidia: 1*128*1500mhz = 192'000 (8800gt)

Kann man das so "berechnen"? Natürlich nur richtig, wenn voll ausgelastet...
 
Zuletzt bearbeitet:
Du weist schon das 512 SI primär die Karte verteuert aber keinen allzugroßen Leistungszuwachs bringt? Schau dir mal die HD2900 Reihe an als Beispiel.
 
Ich kenn auch n paar Leute, die muss man alle paar Tage zusammenscheissen, sonst meinen sie ununterbrochen, sie seien die besten der besten. Danach sind sie für ne Weile wieder ruhig...
 
480 Shader wären doch super, die 3870 hat ja 320. Also wenn man die angepeilten Leistungsaufnahmen vergleicht (~150W für 4870 / 110W für 3870), könnte das hinkommen.
 
Zuletzt bearbeitet:
Naja, trotzdem brauchen sie immer mehr Strom... "The green IT" ist eben doch nicht so grün, wie sie aussieht...
Das Problem ist, dass man bei neuen Chips entweder die Leistung steigern, oder den Verbrauch reduzieren kann.. Beides geht meist nicht.
ATI beginnt nun den Verbrauch im Idle-Betrieb zu senken, was schon sehr viel bringt. Trotzdem werden die Rechnungen immer höher...:xmas:
 
:hmm: Das wären ja mehr als doppelt so viel Shader als beim kommenden nv GT200:

macht doch nichts .... der r670 hat auch mehr wie doppelt so viele als der g80 und kommt leistungsmäßig nicht ran ,das selbe führt sich dann fort. obwohl der sprung shadermäßig r670 gegenüber r770 größer ist als der bei g80/g92 zu gt200 ..... wenn das gerücht mit den 200 shadern stimmt
 
Zuletzt bearbeitet:
Beides geht meist nicht.
Ich hoffe ja immer noch darauf, das es bald mal wieder so ist, wie beim "Wechsel" von der Geforce 6600gt auf die 7600gt. Wo ja trotz der besseren Leistung, weniger Strom verbraucht wurde(auch wenn es nur rund 10 bis 15W waren).


"The green IT" ist eben doch nicht so grün, wie sie aussieht...
Ob die Produktion des ganzen je als "grün" bezeichnet werden kann, ist sowieso fraglich. Von daher ist der Begriff eher Augenwischerei.
 
Zuletzt bearbeitet:
:hmm: Das wären ja mehr als doppelt so viel Shader als beim kommenden nv GT200:

Mir wäre ein höherer Takt lieber.
Zwar ist ein höhere Anzahl oder superskalarität nicht unbedingt schlechter(mit den 5d shadern ist ATI sogar einbisschen moderner), aber die Leistungszunahme ist nicht sicher, wie bei höheren Taktraten, sondern von der Programmierung abhängig.
Und ich möchte mich nicht darauf verlassen müssen, dass der entwickler auf die zukunftssicherere Technik optimiert anstatt auf die meist verbreiteste.

Crysis ist da das beste Beispiel.

heutzutage prangert in fast jedem Spiel das Intel und NVidia Symbol und durch deren Finanzierung ist eine Optimierung auf Konkurenzprodukte fast auszuschliessen.

Ich hoffe, dass GTA4 und CrySis 2 etw. moderner und besser optimeit werden

mfg fkopp
 
Cool wann kommen den die neuen Grafikkarten von ATI also die 4450 und die ganzen guten Karten 4870 und 4870x2 so eine möchte ich mir dann kaufen.
 
shaderleistung in der sekunde ist ja in etwa so (bin aber nicht ganz sicher...:():
ATI: 5*96*775mhz = 372'000 (3870)
nVidia: 1*128*1500mhz = 192'000 (8800gt)

Kann man das so "berechnen"?
Im Grunde schon. Allerdings ist deine Rechnung nicht ganz korrekt. Der RV670 hat lediglich 64 Shader. Hinzu kommt, dass jeder Streamprozessor ein ADD und ein MUL pro Takt berechnen kann, also 2 Flop.

3870: 2 Flop * 5 Streamprozessoren * 64 Shader * 775 MHz = 496 GFlops

Bei nVidia können pro Takt eine ADD und zwei MUL Berechnungen durchgeführt werden, also 3 Flop.

8800 GT: 3 Flop * 1 Streamprozessor * 112 Shader * 1500 MHz = 504 GFlops

Wenn man Wikipedia glauben darf, werden über die zweite MUL Einheit Sonderfunktionen gesteuert, also was bei ATI der 5. Streamprozessor jedes Shaders übernimmt. Damit kommen effektiv, genau wie bei ATI, eigentlich auch nur ein ADD und ein MUL pro Takt zum tragen. Allerdings kann man sicherlich auch hier über den Treiber optimieren.

Mir wäre ein höherer Takt lieber.
Zwar ist ein höhere Anzahl oder superskalarität nicht unbedingt schlechter(mit den 5d shadern ist ATI sogar einbisschen moderner), aber die Leistungszunahme ist nicht sicher, wie bei höheren Taktraten, sondern von der Programmierung abhängig.
Mehr Shader bringen immer mehr Leistung. Das ist nicht direkt von der Programmierung abhängig. Im Gegensatz dazu bedeuten höhere Taktraten eine schlechtere Thermik. Zudem sind solche Erhöhungen regressiv. Da finde ich den Ansatz mit den 5D Shadern bei ATI einfach cleverer.
 
Zuletzt bearbeitet:
Kann man davon ausgehen, dass eine Leistungsmäßig der 3870 ähnliche Karte mit niedrigerem Verbrauch (vor allem IDLE) kommt?

Und hat er jetzt nen 45 oder 55 nm Kern?
 
Zuletzt bearbeitet:
Im Grunde schon. Allerdings ist deine Rechnung nicht ganz korrekt. Der RV670 hat lediglich 64 Shader. Hinzu kommt, dass jeder Streamprozessor ein ADD und ein MUL pro Takt berechnen kann, also 2 Flop.

3870: 2 Flop * 5 Streamprozessoren * 64 Shader * 775 MHz = 496 GFlops

Bei nVidia können pro Takt eine ADD und zwei MUL Berechnungen durchgeführt werden, also 3 Flop.

8800 GT: 3 Flop * 1 Streamprozessor * 112 Shader * 1500 MHz = 504 GFlops

Wenn man Wikipedia glauben darf, werden über die zweite MUL Einheit Sonderfunktionen gesteuert, also was bei ATI der 5. Streamprozessor jedes Shaders übernimmt. Damit kommen effektiv, genau wie bei ATI, eigentlich auch nur ein ADD und ein MUL pro Takt zum tragen. Allerdings kann man sicherlich auch hier über den Treiber optimieren.


Mehr Shader bringen immer mehr Leistung. Das ist nicht direkt von der Programmierung abhängig. Im Gegensatz dazu bedeuten höhere Taktraten eine schlechtere Thermik. Zudem sind solche Erhöhungen regressiv. Da finde ich den Ansatz mit den 5D Shadern bei ATI einfach cleverer.

Ati hat aber nicht viel mehr shadereinheiten, sondern 5D schader.
Und die werden derzeit nicht richtig ausgelastet.

Wie bei der Erhöhung der Anzahl der CPU-Kerne eines x86-Prozessors tritt das 1. Gossensche Gesetz ein.

leider wird nicht alles perfekt verteilt.
NVidia scheint auch trotz höheren Taktes nicht viel mehr Probleme mit der Wärmeentwicklung zu haben, als ati, obwohl nvidia ein wenig im Fertigungsprozess hinterherhinkt.

Ich will jetzt auch nicht diskutieren, inwieweit man vektoroptimiert programmieren muss um die 5d shader auszulasten.

Wir werden ja sehen, ob moderne Titel(GTA4, FarCry 2 usw.) von den 5 shadern profitieren werden.
 
Vektoroptimiert programmieren? Kannst du Grafikanwendungen überhaupt sinnvoll programmieren, ohne voll und ganz auf Vektoren zu setzen?
 
Eben das meine ich ja. :d Das Problem ist immer, ob man nun 4- oder 5-dimensionale Vektoren nutzen kann - schließlich gibts auch in der Grafik nicht nur Pixelfarbberechnungen (die ja zweifelsfrei 4D sind, wobei in homogenen Koordinaten für die meisten Transformationen nichtmal das zutrifft, da ists nur noch 3D).
 
Zuletzt bearbeitet:
Aber was hat denn der GPU-Takt mit der Leistung zu tun? Bei ATI gibt dieser den Shader-Takt an. Bei nVidia aber nicht... Die Leistung einer Karte wird doch in Flop's gemessen, oder? Und die berechnet man ohne den GPU-Takt... Ich schnall's nicht so recht...:d
 
FLOPS bedeutet arithmetische Gleitkommaoperationen pro Sekunde. Der Takt gibt eine Frequenz an, die bekanntlich ebenfalls in "Schwingungen" (Stromimpulsen) pro Sekunde gemessen wird. Dementsprechend gibt die (Anzahl der Shader) * (Anzahl der möglichen OPs pro Shader) * (Takt dieser Shader) die maximal mögliche Leistung an. Verwirrend ist nur, dass bei ATI der Shader- und Chiptakt nicht entkoppelt sind, hingegen bei nVidia laufen die Streamprozessoren mit beinahe dem dreifachen Takt der restlichen GPU. Man spricht von "Taktdomänen". Deswegen rechnet man scheinbar bei ATI mit dem Chiptakt, was aber letztlich nur daran liegt, dass Chip- und Shadertakt dort dasselbe sind.
 
Zuletzt bearbeitet:
Ati hat aber nicht viel mehr shadereinheiten, sondern 5D schader.
Shader sind letztendlich aber bedeutungslos. Die Rohleistung liefern die Streamprozessoren.

Und die werden derzeit nicht richtig ausgelastet.
Doch, werden sie. Lies dir einfach mal durch, was bereits geschrieben wurde. Die Baustellen liegen bei ATI an ganz anderen Stellen, so dass zB die 3870 nicht ganz an die 8800 GT rankommt, obwohl letztere nur minimal mehr Rechenleistung hat. Der Unterschied zB bei der Texelfüllrate liegt bei Faktor 2,5. Das ist einfach zu viel. Der R700 wird ua dieses Manko beheben.

Wie bei der Erhöhung der Anzahl der CPU-Kerne eines x86-Prozessors tritt das 1. Gossensche Gesetz ein.
Das sind zwei vollkommen verschiedene Sachen. Erstens ist das Anwendungsfeld von x86 CPUs und GPUs ein ganz anderes. Und zweitens kann man Shader bzw. Streamprozessoren nicht einfach mit CPU Kernen vergleichen.

NVidia scheint auch trotz höheren Taktes nicht viel mehr Probleme mit der Wärmeentwicklung zu haben, als ati, obwohl nvidia ein wenig im Fertigungsprozess hinterherhinkt.
Also wenn ich mir anschaue, wie sehr nVidia im Vorfeld der 9800 GX2 rumgerudert ist, weil die Karte zu stromhungrig und zu heiss war, bis sie letztendlich wohl auf einen weitestgehend grünen Zweig gekommen sind, während ATI relativ unproblematisch einfach zwei 3870 zusammengepappt hat, scheint die Thermik bei nVidia eben doch nicht so ganz ohne zu sein. Die 3870 braucht ja auch einiges weniger an Leistung im Idle Betrieb. Wobei man hier natürlich spekulieren kann, ob ATI Stromsparfeatures einfach besser umsetzen Kann. Oder nVidia aufgrund der Thermik einfach weniger Möglichkeiten hat.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh