ATI Radeon HD4000 (R700) - [Speku-, News- & Sammelthread] (Part1)

Status
Für weitere Antworten geschlossen.
Alles rund um die ATI Radeon HD4000 Grafikkartenserie

Vorraussichtliche technische Daten:
HD 4870 (RV770XT), 55 nm, 850 MHz Chiptakt, 1050 MHz Shaderdomain, 1935 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 1008 GFlops, 27.200 MT/s, 256 Bit Speicherinterface, 1024 MiB GDDR5, 123,8 GB/s Speicherbandbreite, 150 W TDP, $349 MSPR, Release Mai 2008

HD 4850 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1728 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 512 MiB GDDR5, 110,5 GB/s Speicherbandbreite, 110 W TDP, $269 MSPR, Release Mai 2008

HD 4850 GDDR3 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1143 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 256/512 MiB GDDR3, 73,2 GB/s Speicherbandbreite, 110 W TDP

Quelle: Hartware.de

NEWS:
More RV770 and RV770X2 details

Die shrink with minor changes
ATI said a few things about its new upcoming RV770 chips, and as we've said before you can expect [...]
weiterlesen

RV770 will do GDDR 5 and GDDR3

Two flavours
We’ve learned that single chip RV770 card comes in two flavours. The first one [...]
weiterlesen

RV770XT supports 512-bit memory

Despite the claims
A German Website posted an interesting article with a lot of RV770XT and PRO specs, but [...]
weiterlesen

R700 to launch close to Computex

Or around, at leastRV770 chips are looking good and the highest end R700 based product might launch around Computex (starts at June 3 2008). We believe [...]
weiterlesen


RV770 is already in production
Test one
We learned
that the RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone [...]
weiterlesen

Wer noch interessante Links hat, bitte per PN an mich weiterleiten!


 
Zuletzt bearbeitet:
was ist denn mit RV 770??
gibts das nun nicht ?
ich habe gerade erst den Thread gefunden und bin absolut überrascht, dass es auch eine 45nm Fertigung sein wird und keine 55nm.
GDDR 5 ok, das war ja bekannt, aber doch zu weit aus niedrigeren Mhz wie´s in der Presse stand.
Also, von der bezahlbaren Variante (R750GT-für mich max.) ist es kaum ein Unterschied zu den von hause aus übertakteten 3870er Modellen wenn man nach Mhz geht. - ob sich das Warten doch nicht lohnt????
:confused:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
was ist denn mit RV 770??
gibts das nun nicht ?
ich habe gerade erst den Thread gefunden und bin absolut überrascht, dass es auch eine 45nm Fertigung sein wird und keine 55nm.
GDDR 5 ok, das war ja bekannt, aber doch zu weit aus niedrigeren Mhz wie´s in der Presse stand.
Also, von der bezahlbaren Variante (R750GT-für mich max.) ist es kaum ein Unterschied zu den von hause aus übertakteten 3870er Modellen wenn man nach Mhz geht. - ob sich das Warten doch nicht lohnt????
:confused:

Gehst du von den Sachen aus, die im ersten Post stehen?
Da sollte eigentlich garnix stimmen! Warum stehn die Sachen eigentlich noch dort?

Edit:

Das könnte ungefär hinkommen:
http://forums.vr-zone.com/showthread.php?t=255294
 
Zuletzt bearbeitet:
@OLLI

Vorallem mit nem 4400+ :fresse:
 
Der RV770 wird kommen, für hohe Auflösungen keine Performance bieten, Nvidia wird mit einem G92b kontern und die Verlierer werden die armen 24" Besitzer sein :(.

Ich bin soooo kurz davor mir einfach eine X360 zu holen. Dann hab ich Ruhe und gut ist.
 
ähm?
ich würde nicht den teufel an die wand malen bevor es beidseitig die ersten previews gibt.

zumal wer will sich schon mit so einem mist von konsolen abgeben? die konsolen sind bereits veraltet als sie rauskamen, eine konsole kannst du nicht nachrüsten.
 
natürlich trotzdem sind konsolen praktischer... Aber ego-shooter sind dadarauf scheisse....:d

sieh nur mal, wie viel Leistung noch aus der PS2 ausgequetscht wurde, nur durch gutes programmieren! Wenn man die Spiele von vllt. 2005 mit den jetztigen vergleicht, sieht man sehr grosse unterschiede, doch schon anno dazumals;) war die konsole voll ausgelastet!

Für konsole geben sich programmierer mehr mühe! Sie haben es ja auch einfacher, bei diesem XP/Vista und DX9/DX10 clinch ist's natürlich schwieriger! Beim pc gibz mehr so gepfuschte spiele z.B. Crysis, das beste Beispiel. Das wäre das letzte Spiel, das ich kaufen würde... Versucht mich nicht umzustimmen! CoD4 forever!:d
 
Woher kommt diese Aussage? Die Zahlen(Verdopplung der TMUs, bis zu 1GB RAM und >1GHz Chiptakt) deuten doch auf genug Power auch in hohen Auflösungen hin.

du hats es ja eigentlich schon beantwortet.

du glaubst auch was jede wurst verzapft wah,einer quakt und der andere versucht es auch noch zu beantworten:wall:

man muss nicht jeden müll beantworten;)
 
Zuletzt bearbeitet:
Lasst euch doch nicht so von diesen Wichtigtuern verarschen. Was da in den verlinkten Berichten steht, ist frei erfunden und nachweislich falsch.

Es gibt kein GDDR5 mit 2200MHz, und es gibt auch keine GDDR5-Chips, mit denen 1024MB gebaut werden können*.

GDDR5 kommt mit 1600, 1800 und 2000 MHz, und davon wird definitiv nicht die teuerste Variante verbaut, sondern wie beim GDDR4 die billigste, wobei der Speicher logischerweise NICHT mit dem theoretischen Maximaltakt konzipiert wird.

Der Speichertakt wird bei ca. 1500-1530 MHz liegen, und wenn die Angaben zur GPU genauso erdichtet sind wie die Angaben zum Speicher, kann man vernünftigerweise von ca. 850-900 MHz GPU-Takt ausgehen.

Wenn's denn wirklich 32 TMUs werden, immer noch eine schöne Karte, die bei realistischen Daten eine saugeile Performance bringen dürfte.

2200 MHz Speichertakt... das ist doch absolut lächerlich. Wer will denn auf herkömmlichen PCBs das Übersprechen bei solchen Taktraten in den Griff bekommen? Zumal: Wofür? Das Framework des 770ers wird garantiert nicht die Bandbreite abschöpfen können, daß es Sinn machte, so sündteueren Speicher einzusetzen. 1500MHz sind doch schon rund 40% mehr, und weit oberhalb dessen, was die Konkurenz aufzubieten vermag.

* und wenn sich die texanischen Windbeutel von AMD weiter so bescheuert aufführen, gibt es überhaupt keine GDDR5-Chips, und dann sehen wir erst mal so richtig alt aus. Man kann nur hoffen, daß der Konkurs so schnell wie nur irgend möglich stattfindet, damit ATI noch rechtzeitig in vernünftige Hände kommt.
 
Zuletzt bearbeitet:
wenn ich den letzten teil lese und deine signatur dazu :rolleyes:

der R600 hatte schon viel bandbreite, am ende hat es ihm auch nicht viel gebracht.
es bringt einem nichts wenn du massenhaft bandbreite (R600) oder gpu rohleistung hast (G90) und diese nicht vollständig ausgenutzt werden kann weil irgendwas das ganze ausbremst.

und vergess nicht, wenn man den gerüchten glauben schenken darf wird der GT200 512bit SI haben, sprich er kann auf GDDR3 oder GDDR4 setzen.

bei ATI scheint es eher in richtung 256bit SI zu gehen, da muss man zwangsweise leistungsstarke RAM chips verbauen.

keine ahnung warum die leute nur den VRAM takt/timings als leistungsidentikator für bandbreite kennen :rolleyes:
 
Zuletzt bearbeitet:
Aber beide Chips werden doch mit bis zu 150GB/s angegeben...das müsste in Kombination mit 1GB RAM doch völlig reichen.
 
tomshardware schrieb:
[...]Just like the GPU, the memory clock isn’t set in stone either, but we were told that the GDDR5 memory is currently running at a physical clock of 1.8 - 2.2 GHz.

With a 256-bit memory controller, we’re talking about 115 to 141 GB/s of bandwidth.[...]
Quelle
 
Ist ja richtig. Nun haben wir aber doch in den letzten sechs Monaten gesehen, daß der Kampf notwendigerweise auch über den Preis geführt wird. Die 3000er Karten haben letzten Endes den Markt auf den Kopf gestellt.

Da liegt ja der Hase im Pfeffer, denn 256bit bedeutet vor allem erstmal ein wesentlich einfacheres PCB, weniger Übersprechen, und damit niedrigere Produktionskosten, was Spielraum für andere Details eröffnet.

Der RV670 skaliert ja schon recht ordentlich auf Speicherbandbreite, weswegen man hoffen darf, daß eine überarbeitete und aufgebohrte GPU durchaus auch mehr Bandbreite nutzen kann.

Zwischen 900 MHz und 1400MHz konnte ich das mit meiner HD3870 testen, und bekomme um die 860MHz GPU-Takt tatsächlich prozentuale Zuwächse bei den Framerates, die eins zu eins den prozentualen Zuwächsen beim Speichertakt entsprechen.

Der Trend geht nun mal zu schnelleren Speicherchips, mit dementsprechend schmalerer Anbindung, und das wird sich so fortsetzen. Am Ende zählt Bandbreite, nicht Takt allein, nicht SI allein.

Wenn es unübertaktet bei 1530 MHz und 256 bit auf 100 GB/s hinausläuft, ist das zwar nur die Größenordnung, die schon der R600 mit 512 Bit hatte, aber einiges mehr als der RV670 derzeit hat. Der R600 skalierte bekanntlich kaum auf Speichertakt, aber um so mehr auf GPU-Takt, woran man erkennt, daß er die 100 GB/s nicht nutzen konnte. Sie hatten sich halt aus dem 512 bit SI so ergeben.

Ich trau den Entwicklern zu, begriffen zu haben, daß bessere Nutzung der gegebenen Bandbreite beim 770er absolute Priorität hat. Sonst macht GDDR5 ja auch keinerlei Sinn, und würde nur Kosten verursachen, die den Preisvorteil verspielen.

Mit dem R600 würde ich nicht direkt vergeichen, weil er objektiv gesehen eine andere Strategie verfolgte, und zwar mit Erfolg. Er hat sich gegen die alte GTS knapp abgesetzt, die Basis für etliche Benchmark-Weltrekorde geliefert, und gerade so eben demonstriert, daß eine ATI-Spitzenkarte nicht wirklich signifikant langsamer als ein Konkurenzprodukt sein muß. Die Zielkundschaft ATIs ist nicht so sehr auf dem Schulhof zu finden, und interessiert sich kaum für so lächerliche Leistungsunterschiede wie zwischen der GT/GTX und der HD3870. Da müssen schon 50-100% mehr drin sein, bevor wir über ein anderes Produkt nachdenken, und zwar in vergleichbarer Preisregion. ATI-Käufer sind so. Die wollen vielfältige Nutzungsmöglichkeiten bei robuster Leistung in allen Bereichen, und keine Äquivalente zu fünf Meter langen Motorhauben, keine Rekordkarten, die Game a mit einzigartiger Performance stemmen, um bei Game b auf drei Frames einzubrechen.

Ich würde fast wetten, die 4870 wird zwar mit der overall-Performance eine Ultra abhängen, aber z. B. im 3dmark06 bei moderaten 15k-16k Punkten hängen, und nicht an den 20k kratzen. Und das ist nicht als Kritik gemeint, sondern eher als Anerkennung eines gewissen Understatements. Meine 3870 ist knapp 7 Frames langsamer als eine gut gehende Ultra in Crysis. Und? Bei 38 Grad GPU-Temperatur und unhörbar. (ATIs Flagschiff, leider offiziell nicht in West-Europa erhältlich) Meinste, ich würde tauschen? Nie im Leben. Das ist typisch für die Mentalität der Leute, die ATI bedient. Hie und da ein Schmankerl, das souveräne Leistung zeigt, und ein interessantes Gesamtkonzept, aber keine Analogie zu einem Lambo.

EDIT: Samsung baut keine RAM-Chips für 1024er Bestückung. Und die Legenden vom schnellen GDDR3 streut man aus, weil man sich mit Samsung angelegt hat, und fürchtet, nicht mehr beliefert zu werden. Wer das nicht weiß, und die Story vom schnellen GDDR3 kolportiert, hat nun definitiv gar keine Kompetenz.

NOCHENEDIT: Was ist das denn für ein Laden, der den Low Budget Karottenschneider von Sapphire zum Flaggschiff erklären will??? Also Hardware-Infos.com kann man nun wirklich definitiv nicht ernstnehmen. Da ist ja jedes Wort in jedem Artikel vom galoppierenden Schwachsinn diktiert.
 
Zuletzt bearbeitet:
was intressiert mich 3dmurks? toll die karte hat benchgeschichte geschrieben *wayne* :rolleyes: im endeffekt muss sie leistung in spielen erbingen.

zumal halte ich den vergleich mit crysis eh für recht ... sinnlos, jedenfalls in low FPS bereich. entweder nennt man es 7FPS oder fast 20% mehr leistung die sich auch in anderen games mehr oder minder wiederspiegeln.

PS: zumal ich deinen posting eine gewisse priese fanboy entnehmen darf. das fängt mit schlechten vergleichen an und endet mit verdrehter wahrheit.
 
16k Punkte mit einer Karte (Core) wär doch schonmal was. Wenn der Preis stimmt und AMDs 45nm Quads auch gut sind, kann ich ja komplett auf AMD umsteigen ;)
 
wo macht denn cb tests nur mit aa? zeig mir das mal bitte ich bin gespannt wieviel jahre du suchen musst dafür.egal welche seite alle machen die tests entweder ohne alles oder mit af und aa aber nicht nur mit aa oder nur mit af es sei denn es geht kein aa.

man schalt mal dein kleinhirn an schau doch selber,sogar bei CB tests sieht man doch bei spielen die kein AA unterstützen wo also nur mit AF gebencht wurde wie stark ati karten abfallen und wie relative stabil niewieda karten bleiben.schau z.b. bei stalker,gothic3 die kein aa unterstützen.

in welchem traum haste denn bei cb tests gesehen wo sie nur mit aa getestet haben?
Wenn du nicht sachlich bleiben kannst, dann lassen wir die Diskussion am besten. Beleidigen lasse ich mich jedenfalls nicht. Schon gar nicht, wenn du am Thema vorbeiredest. Wer hat denn etwas von AA only Tests bei CB gesagt? Ich habe mich auf den Test der HD 3870 bezogen und mal mit der GT 8800 verglichen:
1280x1024: +11%
1600x1200: +11%
2560x1600: +9%
1280x1024 4xAA/16xAF: +19%
1280x1024 8xAA/16xAF: -5%
1600x1200 4xAA/16xAF: +8%
1600x1200 8xAA/16xAF: -17%
2560x1600 4xAA/16xAF: +9%
2560x1600 8xAA/16xAF: -51%

Wie man sieht, bei 4xAA liegt die GT immer vorn. Das gleiche Bild wie ohne Qualitätseinstellungen. Bei 8xAA hingegen dreht sich das Bild. Also entweder sackt ATI bei 4xAA ab oder nVidia bei 8xAA. Es _muss_ aber einen Unterschied bei AA geben. Alles aufs AF abzuschieben ist vollkommen unlogisch. Diese Tests mit 1xAA/16xAF und 2xAA/16xAF wären sicherlich aufschlussreicher.
 
Zuletzt bearbeitet:
zumal halte ich den vergleich mit crysis eh für recht ... sinnlos, jedenfalls in low FPS bereich. entweder nennt man es 7FPS oder fast 20% mehr leistung die sich auch in anderen games mehr oder minder wiederspiegeln.

Wie kommst Du eigentlich auf low FPS Bereich? Crysis läuft bei mir so flüssig, daß jeder GT- oder GTX-Besitzer vor Neid grün wird.

Ansonsten stimmt der Rest auch nicht, weil die Performance in jedem Game anders ausfällt. CMR DiRT läuft auf jeder HD3870 mit maximalen Schatten und zehn Fahrzeugen auf der Bahn flüssig, auf der GTX als Slideshow, auf der Ultra gerade so eben spielbar.

PS: zumal ich deinen posting eine gewisse priese fanboy entnehmen darf. das fängt mit schlechten vergleichen an und endet mit verdrehter wahrheit.

Verdrehter Wahrheit... zeig mir mal jemanden ausser mir, der sich an die veröffentlichten Fakten der Speicherhersteller hält.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh