ATI Radeon HD4000 (R700) - [Speku-, News- & Sammelthread] (Part1)

Status
Für weitere Antworten geschlossen.
Alles rund um die ATI Radeon HD4000 Grafikkartenserie

Vorraussichtliche technische Daten:
HD 4870 (RV770XT), 55 nm, 850 MHz Chiptakt, 1050 MHz Shaderdomain, 1935 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 1008 GFlops, 27.200 MT/s, 256 Bit Speicherinterface, 1024 MiB GDDR5, 123,8 GB/s Speicherbandbreite, 150 W TDP, $349 MSPR, Release Mai 2008

HD 4850 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1728 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 512 MiB GDDR5, 110,5 GB/s Speicherbandbreite, 110 W TDP, $269 MSPR, Release Mai 2008

HD 4850 GDDR3 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1143 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 256/512 MiB GDDR3, 73,2 GB/s Speicherbandbreite, 110 W TDP

Quelle: Hartware.de

NEWS:
More RV770 and RV770X2 details

Die shrink with minor changes
ATI said a few things about its new upcoming RV770 chips, and as we've said before you can expect [...]
weiterlesen

RV770 will do GDDR 5 and GDDR3

Two flavours
We’ve learned that single chip RV770 card comes in two flavours. The first one [...]
weiterlesen

RV770XT supports 512-bit memory

Despite the claims
A German Website posted an interesting article with a lot of RV770XT and PRO specs, but [...]
weiterlesen

R700 to launch close to Computex

Or around, at leastRV770 chips are looking good and the highest end R700 based product might launch around Computex (starts at June 3 2008). We believe [...]
weiterlesen


RV770 is already in production
Test one
We learned
that the RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone [...]
weiterlesen

Wer noch interessante Links hat, bitte per PN an mich weiterleiten!


 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wieder ein Gerüchte Thread, die von ATI bekommen nochnichtmal den RV670 richtig an den start, und hier wird schon über eine GPU "gesponnen" die es vieleicht in 2 jahren geben wird.:fresse:

Ist es nicht etwas früh für einen Thread einer GPU die vielcieht R700 heissen wird ? << vorallem bei ATI viel zu früh!:wayne:
 
Also doch Multi-Core ala Intel:
q5jf3fhe.jpg


pc.watch.jp
 
Das Bild macht aber wenig Sinn muss ich sagen, ... vor allem die Aussage Shared Memory macht wenig Sinn...
Denn bei Shared Memory müssten beide GPUs auf alle Speicherbausteige zugreifen können. Das Bild zeigt aber das jede GPU seinen eigenen Speicher hat. Vor allem bräuchte man dann nen ausgelagerten Speichercontroller, welchen man dort auch nicht sieht.
Auch aus dem Blickwinkel betrachtet, das bei den beiden anderen Pics von R600 und R680 der Speicher laut Bild genau so angebunden ist ;)

Wenn man jetzt mal die Fakten der R600 nimmt, würde ich sagen, 512Bit SI sind bei der R600 mit 4 Roten Verbindungen zum Speicher gekennzeichnet.
Bei den R680 Karten werden es wohl 2x256Bit SI sein, je GPU 256Bit halt.

Dementsprechend müsste bei den R700 auch in Summe 512Bit SI vorhanden sein.
Die Frage welche sich mir stellt, reicht das!? Denn so exorbitannt schnellere Speicher werden in naher Zukunft nicht kommen. Also so ca. 1200-1300MHz sind derzeit wohl denkbar. Der HD3870 reicht imho das 256Bit SI aber dafür spart man auch nicht am Speichertakt.
Was ich damit sagen will, wenn die Leistung weiter gesteigert wird, dann könnte das SI schon zum limitierenden Faktor werden
 
Also die Grafik ist schon echt interessant. Wenn man die einzelnen Generationsstufen vergleicht, gleicht das irgendwie dem Sprung von:

Athlon64 (Singlecore mit interner Northbridge) = R600
Pentium D ( zwei zusammengepappte Singlecores mit einzelnem Cache und extener Northbridge) = R680
K10 meets C2Q :fresse: (einzelne Cores mit Shared Cache und interner Northbridge) = R700

Man geht also wirklich den gleichen Weg wie die CPUs es tun/getan haben, was wirtschaftlich gesehen wohl mehr Vorteile bietet als wenn man einen Riesenchip produziert. Mir persönlich solls recht sein wenn AMD es schafft dass Crossfire nahezu perfekt funktioniert ;)
 
Also die Grafik ist schon echt interessant. Wenn man die einzelnen Generationsstufen vergleicht, gleicht das irgendwie dem Sprung von:

Athlon64 (Singlecore mit interner Northbridge) = R600
Pentium D ( zwei zusammengepappte Singlecores mit einzelnem Cache und extener Northbridge) = R680
K10 meets C2Q :fresse: (einzelne Cores mit Shared Cache und interner Northbridge) = R700

Man geht also wirklich den gleichen Weg wie die CPUs es tun/getan haben, was wirtschaftlich gesehen wohl mehr Vorteile bietet als wenn man einen Riesenchip produziert. Mir persönlich solls recht sein wenn AMD es schafft dass Crossfire nahezu perfekt funktioniert ;)

Shared Memory hat aber den entscheidenden Nachteil, das man im Gegensatz zu Lösungen, wo jede GPU ihren eigenen Speicher besitzt, die doppelte Speicherbandbreite brauch...

Des weiteren sollte man bedenken, das die Lösung mit mehreren GPUs genau so wie Lösungen mit mehreren CPUs mit zunehmender Kernanzahl immer ineffizienter werden.
Was wiederum der falsche Weg ist. Gerade in Sachen Leistung/Watt gesehen.

Ob dort wirklich Shared Memory zum Einsatz kommt, sollte man abwarten, die Grafik zeigt für mich ein anderes Bild, da man um Shared Memory zu zeichnen, rein logisch gesehen, nicht die gleichen Bildteile nimmt, wie es bei der herkömmlichen Speicherlösung aussieht.


Zum letzten Punkt, neja das ist so ne Sache, sicher sind extrem hochkomplexe Chips mit immer mehr Transistoren schwerer und auch teurer zu produzieren als viele kleine einfacher Chips, dem gegenüber steht aber der Punkt mit dem Leistungsverlust welchen man hinnimmt, wenn mehrere GPUs zusammen arbeiten (sprich nie doppelte Leistung bei verdopplung der GPUs)
 
Ja die steigende Ineffektivität steht halt ausser frage, ganz klar!
Aber man sieht ja bei den CPUs die Entwickler, die Industrie und wir die Konsumenten nehmen dies in kauf, da muss man wohl einfach den Nutzen/Kostenfaktor abwiegen.
AMD wird wohl ganz einfach aufgrund der Produktionskosten die Ineffektivität in Kauf nehmen...Und mal ganz ehrlich, solang der Kunde ein performantes Produkt mit unschlagbaren Preis/Leistungsverhältnis bekommt, ist den meisten Kunden doch egal, ob 4 Chips nur die 3,5 fache Leistung eines Einzelchips bringen oder nicht am Ende zählt dann ja doch nur die Leistung, egal ob nur ein Chip unter der Haube zu finden ist oder 4(ob 1 Chip 100 fps bringt, oder 4 Chips mit Effektivität von 3,5 100fps bringen).

Und nunja ob die Bandbreite limitiert wird man ja eh sehen, zumal in der Leistung und natürlich auch im Preis. Ob die Architektur überhaupt viel Bandbreite benötigt ist ebenfalls eine Frage. Das sieht man ja im Moment bei den Architekturen G80 und R600...Der G80 kann nicht genug Bandbreite haben und der R600 wäre schon mit der Hälfte der Bandbreite zufrieden gewesen ;)
 
Du hast da in dem Punkt vollkommen recht, aber ich finde der Vergleich mit den CPUs hinkt ein ganz klein wenig.
Nämlich genau in dem Punkt, das es derzeit und auch in der Vergangenheit so ist, das mit jeder neuen CPU Generation mehr Leistung/Pro Takt erlangt wurde.

Mir kommts so vor, als ist dies hier nicht der Fall, sprich mir kommts so vor, als würde man nicht mehr die Leistung so ohne weiteres steigern können/wollen. Aber um diesen Fakt zu kompensieren, einfach die Anzahl der Recheneinheiten erhöhen.

Vor ein paar Tagen hab ich in nem Link mal gelesen, das eine GPU der R700 mit ihrer Leistung in etwa in der Mittelklasse spielen wird, sprich das was heutige 8600 und HD2600 Karten leisten (+ggf. das was bei nem Generationswechsel idR an mehr Leistung erlangt wird)
Mit zwei dieser GPUs zusammengepflanzt ähnlich den Pentium D CPUs würde man dann also im Idealfall doppelte Leistung erhalten. (der ja nie eintritt) Also eher ca. 70-90% Mehrleistung.

Verstehst du wie ich meine!?
Bei den CPUs wird zwar auch die Coreanzahl erhöht, was in gewissen Programmen Vorteile bringen kann, aber die Pro/Core Leistung steigt dennoch mit jeder neuen Generation ne ganze Ecke an. Und diesen Punkt sehe ich hier irgendwie nicht.


Ich finde auch das das Konzept so schlecht gar nicht ist, aber es wird sicher nur funktionieren, wenn der Konkurent ein ähnliches Produkt im Petto hat, sprich wenn NV auch auf so ne Mehrchip Lösung setzt. Bleibt aber NV beim Single GPU Design, dann wird es AMD sehr schwer haben da mithalten zu können.
Beide Hersteller arbeiten idR stets am Limit des zu der Zeit machbaren, sprich wenn NV ne normal effiziente Karte bringt, dann müsste AMD mit so ner Mehrchip Lösung ne ganze Ecke effizienter arbeiten um die gleiche Leistung/Watt erlangen zu können.
Und genau das glaube ich wird nicht passieren, daher sage ich auch, das das der falsche Weg ist.

Wenn natürlich NV ein ähnliches Konzept mit den kommenden Chips erarbeiten würde, dann hätten beide Hersteller wiederum das gleiche Handicap. Aber so wie es scheint wird NV an der Single CPU Lösung weiterhin festhalten und somit hat AMD allein die Nachteile auszubügeln...

Ich bin sogar der Meinung, wenn es AMD schaffen sollte ne Karte zu bauen, welche mit mehreren GPUs genau so effizient arbeiten wie ne Single GPU Karte der Konkurenz, und man diese Effizients der AMD Karte übertragen würde, auf eine "dicke" Single GPU Lösung, dann hätte man bei weitem das bessere Paket. Sprich also wenn die NV Single GPU Karten 100FPS bringt, und AMD ne Karte mit zwei GPUs (trotz der ineffizienz) welche auch auf 100FPS kommt und das noch mit gleichen Stromverbrauch und in etwa gleicher Lautstärke, dann würde es AMD auch gelingen ne Karte zu bauen, welche mit einer "dicken" GPU in etwa die gleiche Effizienz schafft und hätte somit das bessere Paket...

Ich weis halt auch nicht so genau wie und was ich davon nun so richtig halten soll, sicher muss man das Gesamtpaket erstmal abwarten, um genaues bewurteilen zu können, derzeit siehts für mich aber ein wenig düster aus...
 
Ich hab mir mal den Kopf zerbrochen:

Wenn der R7x0 Shared Memory besitzen soll, dann muss der Speichercontroller ausgelagert sein. Ein ausgelagerter zentraler Memory Controller würde die Effizienz gegen über der herkömmlichen Speicheranbindung, wie zum Beispiel beim R680, verbessern. AMD scheint ja Wert auf eine bessere Multicoreanbindung zu legen, sonst würde es nicht andauernd betont.
Weiterhin verhält sich der eRAM mit steigender Kernanzahl merkwürdig (1 Kern= 0MiB, 2 Kerne= 10MiB, 4 Kerne ebenfalls 10MiB, 6 Kerne= 20MiB und 8 Kerne ebenfalls 20Mib), worauf man darauf schließen kann das er sich nicht in der eigentlichen GPU befinden kann.

So hier meine Lösung für dieses Problem:
Ein separater Chip für die Kommunikation, das Speichermanagement ,den eRAM und den Cross-Fire Link.
ofqy7ia3.jpg
 
Zuletzt bearbeitet:
Hehe das wird ein Spaß für sowas Wasserkühler zu entwickeln :) ...
 
wird für die x2(3870x2) eigentlich noch der pcie 1 bzw 1.1a reichen ?
 
Interessanter Thread....

@ effizienz: es wäre zu überlegen, wie im Grafikbereich multithreading aussehen könnte, dass über eine simple aufteilung des bildes auf die einzelnen cores wie beim jetzigen CF auch hinausgeht...

weiterhin: wie sieht es mit der auslastung der einzelnen cores addiert aus? besser oder schlechter als bei single chip? oder lasten shaderintensive bildteile wiederum nur die shaderunits aus, aa und af die samplinguntis uswusf? welcher effekt ist zusammengenommen zu erwarten, wenn hier jeder chip in einem multicore-design unter umständen mit unterschiedlicher charakteristik ausgelastet ist? besser oder gleich/schlechter verglichen mit one-chip?


@ brainoo: falscher thread... aber wird er wahrscheinlich..
 
Zuletzt bearbeitet:
@Thunderbird21

arbeitest du für AMD/ATI ?... ich denke du solltest dich bewerben, dann sollte es endlich wieder bergauf gehen mit den grafikkarten ;)

energietechnich sollte aber diese 8-kern-lösung aber immer noch über 200W verbraten, was aber bei einer anständigen leistung vertretbar wäre.

jetzt stellt sich noch die frage wie schnell ein einzelner R7X0 Chip sein wird ich denke an eine etwas verbesserte leistung des R670 auf 45nm Basis sollte dann im endeffekt bestenfalls ca 7 mal schneller sein als der jetztige R600 bei gleichem takt....

Ich freue mich schon auf die neue Graka-Generation :)
 
Ein R700 Chip (32 SP, 8 ROPs) wird definitiv langsamer als ein R600, ich sehe ihn eher als halben R600/RV670 mit mehr Takt und separat getakteter Shader-Domian.
Der Stromverbrauch der R750XT dürfte unter Last die 200Watt Marke erreichen, dank Powerplay und abschaltbarer Kerne sollte der Verbrauch im Idle aber unschlagbar gering sein.
 
Zuletzt bearbeitet:
Ich hab mir mal den Kopf zerbrochen:

Wenn der R7x0 Shared Memory besitzen soll, dann muss der Speichercontroller ausgelagert sein. Ein ausgelagerter zentraler Memory Controller würde die Effizienz gegen über der herkömmlichen Speicheranbindung, wie zum Beispiel beim R680, verbessern. AMD scheint ja Wert auf eine bessere Multicoreanbindung zu legen, sonst würde es nicht andauernd betont.
Weiterhin verhält sich der eRAM mit steigender Kernanzahl merkwürdig (1 Kern= 0MiB, 2 Kerne= 10MiB, 4 Kerne ebenfalls 10MiB, 6 Kerne= 20MiB und 8 Kerne ebenfalls 20Mib), worauf man darauf schließen kann das er sich nicht in der eigentlichen GPU befinden kann.

So hier meine Lösung für dieses Problem:
Ein separater Chip für die Kommunikation, das Speichermanagement ,den eRAM und den Cross-Fire Link.
ofqy7ia3.jpg

Nicht schlecht.
Ein Nachteil hat das gnaze allerdings.
Man vervierfacht die Anzahl der Mid-stops theoretisch.
Man müsste versuchen mit brachialer Takterhöhng die Latenzen zu veringern.
 
Shared Memory hat aber ein großen vorteil, man braucht nur ein Speicherabbild, denn ne 3870 X2 mit 1024MB kann ja nur 512MB nutzen weil jeder Chips die gleiche zb Textur in sein eigenen Ram schreiben muss.

Somit hat deine X2 mit 1024MB nur effectiv 512MB aber ne R700 mit 4 chips und 1024MB auch 1024MB die genutz werden können!
 
Hört sich alles irgendwie witzig an ... die TopGRaka mit den 8 Einheiten wird aber nur mit 2 Jahres vertrag mit einem Energieanbieter deiner Wahl geben - inkl den 3 Starkstromanschlüssen ;)

Und wenn dat Dingen mehr als 4 Leute gleichzeig betreiben haben wir WIRKLICH ein ernsthaftes Problem mit der Klimaerwärmung ;)

Aber es hat natürlich auch seine Vorteile - so kann man den Hauptstromzähler des Hauses bequem als Ventilator nutzen *eg*
 
Du vergisst, dass die einzelnen Cores kleiner dimensioniert sind als die heutigen Kerne...

Das Top-Modell wird sicher wieder so auf dem niveau 3870 X2 bzw. HD2900XT liegen, also um die max. 200W... Durch stromspartechniken, die die einzelnen cores aber deaktivieren, einzeln takten o.ä. im 2d/teillastbetrieb kann man sogar einsparen...
 
ich hoffe sehr, dass sich im idle betrieb durch powerplay und mit teilen einer SPP technik der stromverbrauch noch weiter reduzieren lässt. die hd38xx sind zwar schon sparsamer, aber das reicht bei weitem nicht aus.

Gruß,
Fabi
 
spp ist für multicore nicht für mutlichip.
Ob AMD das auf den r700 überträgt, ist fraglich.
 
stimmt schon, aber eine ähnliche technik wäre sinnvoll und auch möglich...
 
Ich hab mir mal den Kopf zerbrochen:

Wenn der R7x0 Shared Memory besitzen soll, dann muss der Speichercontroller ausgelagert sein. Ein ausgelagerter zentraler Memory Controller würde die Effizienz gegen über der herkömmlichen Speicheranbindung, wie zum Beispiel beim R680, verbessern. AMD scheint ja Wert auf eine bessere Multicoreanbindung zu legen, sonst würde es nicht andauernd betont.
Weiterhin verhält sich der eRAM mit steigender Kernanzahl merkwürdig (1 Kern= 0MiB, 2 Kerne= 10MiB, 4 Kerne ebenfalls 10MiB, 6 Kerne= 20MiB und 8 Kerne ebenfalls 20Mib), worauf man darauf schließen kann das er sich nicht in der eigentlichen GPU befinden kann.

So hier meine Lösung für dieses Problem:
Ein separater Chip für die Kommunikation, das Speichermanagement ,den eRAM und den Cross-Fire Link.

So könnte man das realisieren, ich sehe nur ein Problem mit der Speicheranbindung. Bei deinem R750XT Pic beispielsweise, zwei mal 512Bit SI sind auf einem PCB noch nicht machbar...
Und es kommt noch der Platzfaktor hinzu, wer sich ne HD2900Pro/XT schon mal genau angesehen hat, der merkt, das dort haufenweise Platz für die Speicherchips benutzt wird. Jetzt stellt euch mal vor, das man 32Chips (16Chips brauch die R600 für 512Bit SI) auf einem PCB unterbringen soll...

Wieso soll eigentlich so wie du sagst, die effizientz des Speichercontrollers steigen, wenn man diesen zentral auslagert!? Eigentlich ist das eher genau anders rum, denn ein Speicher, welcher von mehreren "Clients" benutzt wird, ist langsamer als ein Speicher, wo jeder "Client" seine eigene Anbindung bzw. seine eigenen Bereich hat.

Und ne letzte Frage, hast du irgendwo fundierte Quellen am Start, welche sagen, wie viele GPUs kommen sollen!?
Ich ging nämlich derzeit immer davon aus, das die Topkarte 4 GPUs haben wird. Bei dir hat die Topkarte aber 8 GPUs, hab ich da was verpasst!?
Oder war das eher nur spekulation!?

Interessanter Thread....

@ effizienz: es wäre zu überlegen, wie im Grafikbereich multithreading aussehen könnte, dass über eine simple aufteilung des bildes auf die einzelnen cores wie beim jetzigen CF auch hinausgeht...

weiterhin: wie sieht es mit der auslastung der einzelnen cores addiert aus? besser oder schlechter als bei single chip? oder lasten shaderintensive bildteile wiederum nur die shaderunits aus, aa und af die samplinguntis uswusf? welcher effekt ist zusammengenommen zu erwarten, wenn hier jeder chip in einem multicore-design unter umständen mit unterschiedlicher charakteristik ausgelastet ist? besser oder gleich/schlechter verglichen mit one-chip?

Also ich sag mal so, im Grakabereich das parallele Abarbeiten von Arbeitsschritten schon seit vielen Jahren gang und gebe...
Die Recheneinheiten in einem Grafikchip arbeiten also schon parallel, daher macht wie ich finde ja auch das doppelt auslegen des gesamten Chips irgendwie kein Sinn, da man im Grunde nur ein paar Dinge des Chips brauch und der Rest einfach nur mitarbeitet und Strom brauch obwohl es gar net genutzt wird.

Die letzte Frage da versteh ich net, was du damit meinst.
Aber zum AA, also bei ATI ists seit dem R600 eher so, das AA auch mit über die Shader realisiert wird, zumindest in einigen AA Modi.

Shared Memory hat aber ein großen vorteil, man braucht nur ein Speicherabbild, denn ne 3870 X2 mit 1024MB kann ja nur 512MB nutzen weil jeder Chips die gleiche zb Textur in sein eigenen Ram schreiben muss.

Somit hat deine X2 mit 1024MB nur effectiv 512MB aber ne R700 mit 4 chips und 1024MB auch 1024MB die genutz werden können!

Da ist was waren dran, das ist in der Tat ein Vorteil, dem gegenüber stehen aber die erhöhte gebrauchte Bandbreite um gleiche Leistung zu erlangen.
Der Shared Memory Speed müsste dann in etwa so berechnet werden:
Anzahl der Cores * Bandbreite, welcher ein Core brauch um nicht Bandbreitenlimitiert zu arbeiten.
Und das könnte das Problem werden ;)

Du vergisst, dass die einzelnen Cores kleiner dimensioniert sind als die heutigen Kerne...

Das Top-Modell wird sicher wieder so auf dem niveau 3870 X2 bzw. HD2900XT liegen, also um die max. 200W... Durch stromspartechniken, die die einzelnen cores aber deaktivieren, einzeln takten o.ä. im 2d/teillastbetrieb kann man sogar einsparen...

Neja eine HD3870 X2 wird unter Last wohl so ca. 190-200W brauchen, die HD2900XT liegt bei 161W Lastverbrauch.
Viel mehr als 200W sind denke ich nicht tragbar für den Kunden... dazu müssen wir aber wohl abwarten.
Ich sag nur R600, (angeblicher Verbrauch von 225W, welche immer wieder in diversen Spekulationen auftauchten)
 
Wenn man den Gerüchten Glauben schenkt, werden die Karte nicht und richtig schnell sondern auch richtig teuer... bis zu 950 $ ist schon der Hammer.
 
glaub ich nicht, die HD3870 kostet ~200 €, die X2 ist auch nix anderes als 3870 CF, also 500 wären denkbar aber 950 niemals, die würd sich nie verkaufen ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh