ATI Radeon HD4000 (R700) - [Speku-, News- & Sammelthread] (Part1)

Status
Für weitere Antworten geschlossen.
Alles rund um die ATI Radeon HD4000 Grafikkartenserie

Vorraussichtliche technische Daten:
HD 4870 (RV770XT), 55 nm, 850 MHz Chiptakt, 1050 MHz Shaderdomain, 1935 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 1008 GFlops, 27.200 MT/s, 256 Bit Speicherinterface, 1024 MiB GDDR5, 123,8 GB/s Speicherbandbreite, 150 W TDP, $349 MSPR, Release Mai 2008

HD 4850 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1728 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 512 MiB GDDR5, 110,5 GB/s Speicherbandbreite, 110 W TDP, $269 MSPR, Release Mai 2008

HD 4850 GDDR3 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1143 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 256/512 MiB GDDR3, 73,2 GB/s Speicherbandbreite, 110 W TDP

Quelle: Hartware.de

NEWS:
More RV770 and RV770X2 details

Die shrink with minor changes
ATI said a few things about its new upcoming RV770 chips, and as we've said before you can expect [...]
weiterlesen

RV770 will do GDDR 5 and GDDR3

Two flavours
We’ve learned that single chip RV770 card comes in two flavours. The first one [...]
weiterlesen

RV770XT supports 512-bit memory

Despite the claims
A German Website posted an interesting article with a lot of RV770XT and PRO specs, but [...]
weiterlesen

R700 to launch close to Computex

Or around, at leastRV770 chips are looking good and the highest end R700 based product might launch around Computex (starts at June 3 2008). We believe [...]
weiterlesen


RV770 is already in production
Test one
We learned
that the RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone [...]
weiterlesen

Wer noch interessante Links hat, bitte per PN an mich weiterleiten!


 
Zuletzt bearbeitet:
@duplex
es ist doch wurst, hauptsache bandbreite. entweder durch SI oder GDDR.
entweder nimmt man ein schmales SI aber high clock GDDR oder breites SI und kann auf günstigen GDDR3 zurück greifen.

@elbart08
GDDR5 ist eine weiter entwicklung von GDDR4. alle GGDRs basieren auf DDR2.
so gesehen hat damals eine splittung statt gefunden. RAM spizell für grakas.
der einzigste unterschied von GGDR3 zu GDDR5 ist in den taktraten und timings zu finden.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
jo klar, aber das wäre dann wohl die Lösung für die "Microruckler" und man könnte von der X2 die dan kommt den 1GB VRAM auch wirklich nutzen :)
 
oha das wird Interessant :bigok:

R700 architecture is different from R680 as it posesses the ability for the 2 RV770 GPUs to address a common pool of memory. R700 could possibly the first card to run Crysis flawlessly. Also the recent specs leaked on Radeon HD 4000 series are fake according to them.


http://bbs.chiphell.com/viewthread.php?tid=16521&extra=page=1
Dsa glaubst du dem Japaner? Sowas hätte ich auch schreiben können :haha:

Warum wäre das die Lösung für Mikroruckler? Rendern die Chips dann nicht im AFR modus?
Aber möglich ist es ^^
 
Zuletzt bearbeitet von einem Moderator:
Dsa glaubst du dem Japaner? Sowas hätte ich auch schreiben können :haha:

Warum wäre das die Lösung für Mikroruckler? Rendern die Chips dann nicht im AFR modus?
Aber möglich ist es ^^

Ich glaub noch keinem ist ja bloss Spekulation :)

Hab ja bloss geschrieben "könnte", wenn die Daten in den selben Speicher geschrieben werden dürfte sowas eigentlich nicht auftretten oder ?

Ich weiss noch nicht so recht wie das funzen soll aber mal sehen, wird bestimmt Interessant wenn die das so schaffen ohne Microruckler bin ich gespannt wie Nvida vorgehen will :)
 
Zuletzt bearbeitet:
@zocker28: Was da bei den Mikrorucklern wirklich passiert weiß anscheinend niemand. Der Speicher spielt da glaube ich eher keine Rolle, aber man kann es nicht wissen.
Irgendwie schlägt die Synchronisation der Karten fehl.
Müsste eigentlich einfach zu lösen sein, bin mal gespannt ob das auch dann gelöst wird ^^
 
Dsa glaubst du dem Japaner? Sowas hätte ich auch schreiben können :haha:

Warum wäre das die Lösung für Mikroruckler? Rendern die Chips dann nicht im AFR modus?
Aber möglich ist es ^^

nur das man denen das eher abnimmt und dir eher weniger:haha:

ich find die seite ganz nützlich,vorallem kommen die oft an sachen die noch garnicht offiziell vorgestellt worden sind,wie das machen ist mir eigentlich schnuppe.
 
Zuletzt bearbeitet:
@zocker28
du sagtest mal, das die mikroruckler softwarebedingt sein. jetzt bist du plötzlich der meinung das eine bessere nutzung vom VRAM die problemlösung ist? ;)

ein share memory wird das ganze sicherlich nicht lösen, es liegt einfach nur an der synchronisation der GPUs bzw. der outputs.
 
Ich denke nicht, dass es ein Treiberproblem ist, aber mit dem Treiber könnte man womöglich eine Notlösung schaffen - eben einen Framelimiter einbauen, wie im 3dc bereits gesehen.
Laut einer Quelle, die ich vorhin gelesen habe und der ich durchaus glaube, wird auf dem R7xx übrigens kein CrossFire zum Einsatz kommen. Zum Thema: Wie reagiert nVidia? kann ich nur sagen: SingleChip.
 
Zuletzt bearbeitet:
Nun, die GX2 ist in Planung, das bestreite ich nicht - aber meines Wissens nach ist danach nicht primär der Multichipweg geplant.
 
Ich denke, auch Nvidia muss in Zukunft auf den MultiChipzug aufspringen.

In 2 bis 3 Jahren sind die Dinger nicht mehr wegzudenken. Denke ich mal.
 
Ich glaube eher das die Zukunft Mutilcore Designs sind wie bei den CPUs.
 
@mutio
GPUs sind bereits multicores, es gibt einzelne shadersquads die man als einzelen core ansehen kann/will/muss :fresse:.
zumal das nichts an der situation ändert. die yield würde auch nicht besser werden dadurch.
 
Zuletzt bearbeitet:

:lol: Ziehen die mit Blendgranaten und MPs los? Du meinst sicher ShaderQuads. Nicht Squads. ;)

Aber genau das predige ich ja auch schon seit langer Zeit, doch irgendwie will es keiner Wahrhaben. Multicore und Multichip sind bei GPUs eigentlich der größte Unfug, den man machen kann, denn es geht viel effizienter, indem man bei bisherigen Techniken bleibt. Natürlich nur, wenn man nicht irgendwo anders an eine Grenze stößt (mMn am ehesten ökonomischer Art).
 
hmm naja das ding zieht mich iwie an aber auch net.
der idle stromvebrauch ist ja sehr niedrig wie ati sagt soll beim spizenmodell 20watt sein bis zu unter 10w. aber bei last geht das ding ja auch dann ab beim spitzenmodell TDP250W - 100W.
Die 3870 haben mich ja angezogen wegen dem niedrgien stromvebrauch da er auch 100w bei vollast vebraucht soviel wie meim alter 1950xt war halt nix gegen den 3870 zu entscheiden.
Also solang ich noch bei meinen Eltern wohn kommt ins haus keine graka die 100W und mehr vebraucht sonst kicken meine Eltern mich ausm Haus raus.
Wenn ich selber mal ne wohnung hab greif ich da aber ohne bedenken zu.

Mfg
 
@lord
da ist mir irgendwie das s reingerutscht :fresse:

das problem an einer GPU ist, das diese von gen zu gen immer mehr transistoren fassen. schaut man sich eine CPU an (ohne und mit cache) wird klar wieviel logiktransistoren eine GPU doch hat.

problem ist, das dies automatisch zu riesigen DIEs führt, mal abgesehen von den low und mid segment. einerseits ist die yield recht gering und es passen weniger DIEs auf einem waver. zu einem weiteren problem werden die vielen logiktransistoren, cache ist leichter zu optimierungen als logik.

irgendwo wird es eine grenze geben. das problem an der derzeitigen multi-gpu technik ist, das praktisch keine synch zwischen beiden oder mehreren GPUs erfolgt. jede hat ihren eigenen zyklus. jede haut den frameoutput dann raus, wenn es ihr passt bzw. wenn sie es fertig gerendert hat. das ist so als würde man zwei leute in zwei räume einsperren und keiner weis was der andere gerade macht und trozdem müssen sie irgendwas zustande bringen als team.
 
der einzigste unterschied von GGDR3 zu GDDR5 ist in den taktraten und timings zu finden.

Um das nochmal aufzugreifen...
hier fehlt noch ein wesentlicher Punkt, nämlich die Leistungsaufnahme. Sogesagt mehr Leistung bei gleichem Verbrauch wie beim "Vorgänger" Modell oder aber gleiche Leistung bei weniger Leistungsaufnahme...

hmm naja das ding zieht mich iwie an aber auch net.
der idle stromvebrauch ist ja sehr niedrig wie ati sagt soll beim spizenmodell 20watt sein bis zu unter 10w. aber bei last geht das ding ja auch dann ab beim spitzenmodell TDP250W - 100W.
Die 3870 haben mich ja angezogen wegen dem niedrgien stromvebrauch da er auch 100w bei vollast vebraucht soviel wie meim alter 1950xt war halt nix gegen den 3870 zu entscheiden.

Es vergessen immer sehr viele beim betrachten der nakten Fakten/Zahlen was am Ende bei rauskommt, sprich wie effizient die ganze Geschichte wird...
Bis jetzt war es eben so, das mit jeder neuen Generation von Grakas (mal ausgenommen die HD38x0er und G92 Karten) die Leistungsaufnahme ein Stück gestiegen ist, aber die Leistung sich idR auch deutlich gesteigert hat...

Schaut man sich das über den kompletten Zeitraum in nem Diagramm mal an, dann fällt auf, das die Effizienz mit jeder Generation deutlich verbessert wurde.

Alle schreien immer nach schnelleren Karten aber mit deutlich niedrigerem Verbrauch, das geht nun mal nicht. Was Leistung bringen soll, muss auch Strom aufnehmen.
Und ich mein, was spricht dagegen, wenn die Leistungsaufnahme verdoppelt wird, aber die Geschwindigkeit um den Faktor 4 steigt...
Da kann mit Sicherheit keiner von schlechter Arbeit sprechen.
 
naja was mit sli und cf möglich ist ist schon beeindruckend ...zumal es funktioniert... ;)

ähm keine cf bzw xf unterstützung halte ich für sehr unwarscheinlich da es gegen die spiderplattform sprechen würde....
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh