ATI Radeon HD4000 (R700) - [Speku-, News- & Sammelthread] (Part1)

Status
Für weitere Antworten geschlossen.
Alles rund um die ATI Radeon HD4000 Grafikkartenserie

Vorraussichtliche technische Daten:
HD 4870 (RV770XT), 55 nm, 850 MHz Chiptakt, 1050 MHz Shaderdomain, 1935 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 1008 GFlops, 27.200 MT/s, 256 Bit Speicherinterface, 1024 MiB GDDR5, 123,8 GB/s Speicherbandbreite, 150 W TDP, $349 MSPR, Release Mai 2008

HD 4850 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1728 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 512 MiB GDDR5, 110,5 GB/s Speicherbandbreite, 110 W TDP, $269 MSPR, Release Mai 2008

HD 4850 GDDR3 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1143 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 256/512 MiB GDDR3, 73,2 GB/s Speicherbandbreite, 110 W TDP

Quelle: Hartware.de

NEWS:
More RV770 and RV770X2 details

Die shrink with minor changes
ATI said a few things about its new upcoming RV770 chips, and as we've said before you can expect [...]
weiterlesen

RV770 will do GDDR 5 and GDDR3

Two flavours
We’ve learned that single chip RV770 card comes in two flavours. The first one [...]
weiterlesen

RV770XT supports 512-bit memory

Despite the claims
A German Website posted an interesting article with a lot of RV770XT and PRO specs, but [...]
weiterlesen

R700 to launch close to Computex

Or around, at leastRV770 chips are looking good and the highest end R700 based product might launch around Computex (starts at June 3 2008). We believe [...]
weiterlesen


RV770 is already in production
Test one
We learned
that the RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone [...]
weiterlesen

Wer noch interessante Links hat, bitte per PN an mich weiterleiten!


 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
kannst davon ausgehen das sie ein bissel stärker ist als eine x²,da sie doppelt so schnell wie eine 3870 sein soll und eine x² ist nicht mal im bestenfall doppelt so schnell wie eine 3870;)
aber das sieht man ja schon an den flopwerten auch wenn das nicht alles ist.


Cool. Dann bin ich ja wieder happy. Wusst die Daten der X2 nicht mir so ganz genau.:d

naja ich hab ja ne wasserkühlung ;) und wills auch so bleiben lassen ;)

Oh, sry. Hab ich nicht bemerkt. *mich_schähm*.
 
@derguru: Und du glaubst, du hast mehr Ahnung als ich, weil ich noch zur Schule gehe? Eine Pauschalisierung, die so weder zulässig noch korrekt ist, scheint mir. Aber wenn es dir das Leben leichter macht, glaub dran. ;)

Ich gehe von mehr als 50% Leistungssteigerung aus. Allein die verdoppelte Rohleistung beim Sampling aus Texturen, die bisher definitiv der Knackpunkt gewesen ist, erlaubt viel größere Spielräume, die ohnehin schon vorhandene Shaderleistung effektiver zu nutzen. Dazu noch mehr Shaderleistung UND (hoffentlich) neue Algorithmen für die Schwachstellen, die die R600-Derivate schon immer hatten, und das kann ein echt guter Chip werden. :)
 
Eigentlich muss ich Lord Recht geben.
Auch wenn die HD4870 doppelt so viele Gleitkommeberechnungen schafft wie die HD3870, war doch immer eine Leistungssteigerung von ca. 50% im Gespräch.
 
Ich hätte mir gewünscht, dass eine HD4870 so stark wird wie eine HD3870X2 wird.

Wiso? Die wird doch stärker ;) wegen der M-GPU Nachteile der X2 liefert die 4870er immer konstant Leistung und braucht nicht auf Profile warten, die besseren Frametimes machen die sache dann schon rund.
 
wirst schon sehen gothic3 oder crysis werden sogar mehr als die doppelte leistung haben als mit einer 3870 da die grösste bremse die texturleistung war und ist.
 
Eigentlich muss ich Lord Recht geben.
Auch wenn die HD4870 doppelt so viele Gleitkommeberechnungen schafft wie die HD3870, war doch immer eine Leistungssteigerung von ca. 50% im Gespräch.

Ich denke da ist aber mehr drin, ... klar, die Rechenleistung allein zählt nicht, aber z.B. Shadertakt, und Bandbreite sind auch extrem verbessert worden.
 
Gibt es schon ein Foto von der HD4870? Wie wird das Teil so von der Grösse? Wie eine HD3870X2 oder eine HD3870?
 
256Bit-Speicherinterface spricht eigtl. für eine kurze Platine, es sei denn, die überlegen sich noch was Raffiniertes für die Stromversorgung.
 
Ich würde auf die Specs nichts geben.
 
256Bit-Speicherinterface spricht eigtl. für eine kurze Platine, es sei denn, die überlegen sich noch was Raffiniertes für die Stromversorgung.

Ich wollt mich jezt nicht durch den ganzen Fred lesen, aber wieso hat keiner mehr das 512.Bit Design der 2900XT aufgegriffen :confused:
 
Ich wollt mich jezt nicht durch den ganzen Fred lesen, aber wieso hat keiner mehr das 512.Bit Design der 2900XT aufgegriffen :confused:

Wieso im einzelnen, weiß nur der Hersteller selbst. Außerdem - wie gesagt - ist die Karte noch nicht auf dem Markt, das bisher sind alles nur unbestätigte, zusammengeklaubte Infos. Will heißen: Es könnte auch ganz anders kommen. Der Hauptgrund GEGEN ein so großes Interface wie bei der 2900XT ist dessen vergleichsweise sehr hoher Preis. Auch sorgt ein großes Interface, wie ich bereits erwähnte, dafür, dass das Platinenlayout neu- und umgebastelt werden muss und das kostet auch bloß Geld.
 
weil ati auf gddr5 speicher bauen tut und damit macht man das speicherbandproblem wieder wett.was preismässig sinnvoller wäre kann ja uns egal sein,aber ich glaube auch ein 512 si ist auch teuerer.

ob am ende die speicherbandbreite über den si oder den speicher genutzt wird ist uns käufer eigentlich wurscht kommt im endeffekt das selbe raus.
 
Mal abgesehen von der Speicherart verstehe ich nicht warum so viele Bandbreitenspzialisten hier immer rumposaunen das man keine 512bit und 1024Mb brauch.

Und wozu will schon seit über nem Jahr das verwöhnte Widescreenpublicum sowas und brauch sowas ???

Demnächst heißte es dann, YEAH 128bit reichen bei GDDR6 oder was ?
 
Demnächst heißte es dann, YEAH 128bit reichen bei GDDR6 oder was ?
Ist zwar etwas übertrieben von dir, aber so wird es sicher auch nicht kommen. Eine gewisse Speicherbandbreite muss schon zur Verfügung stehen. Hier sollte also GDDR3 und 256Bit das mindeste sein!

Naja Fudu :shot:

Gibt eigentlich nur 2 möglichkeiten entweder der RV770 kommt mit 512SI aber DDR3 oder die meinen den R700 mit 2x256SI=512SI
So abwägig finde ich das nicht, zumal der der R600er dies auch schon hatte und für nVida atm nichts anderes prognostiziert ist!

Vorallem bei den Preisen...
Da hat er wohl recht! :d

Gruß
:wink:
 
Also Ich lese jetzt hier die ganze Zeit schon mit , aber kann nun nicht mehr an mich halten... ;)

Was haben hier so manche leute für ein Prob mit dem SI ?

Man hat es früher schon gesehen was das aussmachen kann. (Radeon 9700 Pro 128Bit und 256Bit) Und das war mit normalen DDR Speicher.

Ich denke das ist einfach der lauf der Zeit das die 256Bit auch mal ausgereizt sind, und der nächst logische Schritt im High Performance segment 512Bit ist.

Finde das ohne hin schon erstaunlich das die 256Bit biss QDDR4 immer noch absolut ausreichend ist.

In Verbindung mit hoch getakteten QDDR5 stell Ich mir ein 512Bit SI sehr Performant vor :)

greetz
Black2Soul
 
In Verbindung mit hoch getakteten QDDR5 stell Ich mir ein 512Bit SI sehr Performant vor :)

greetz
Black2Soul


Welcher absoluter overkill wäre. Siehe R520. Riesen bandbreite aber die ist verhungert weil der Chip zu langsam war. Wenn da vorher andere Dinge limitieren kannste da sonstwas an Bandbreite reinknallen, es bringt nichts außer einem höheren Kartenpreis und nur geringem Nutzen daraus. Und da eh nur der interne Ringbus gemeint sein wird, ist die Meldung nicht der Rede wert.
 
Gebe Ich dir vollkommen Recht und denke auch das dieser gemeint ist.

Aber mal angenommen (Ist ja ein Speku Thread) das der Chip nicht zu langsam wäre... Stell Dir das mal vor! ;)

Was mir hauptsächlich auffällt ist das die meisten Leuten , wenn es um das SI geht gleich mit den Kosten anfangen und dann erst über Sinn und Unsinn Disskutieren (So scheint es mir)

Aber wenn Ich mir mal so überlege wie Teuer früher zum bsp. eine Geforce 3 war als sie erschienen ist... 450 -500 € Und was hatte sie wirklich zu bieten? Warum hat Sie fast jeder gekauft und was hat man letztendlich von gehabt? DirectX 8 was niemals richtig genuzt wurde :fresse: Abgesehen davon das Die GF2 Ultra bis dahin fast überall noch ein kleinen Tick schneller war.

Heute wird sich aufgeregt wenn eine Highperformance Karte knapp 400€ kostet, wenn überhaupt...

Da Frage Ich mich... was wollen die leute, und für was gibt es abgespeckte Versionen?

Wen es zu teuer ist, kauft sich was abgespecktest. Abgesehen davon das eine Karte mit QDDR5 @ 512bit SI aus heutiger Sicht, wirklich kein normaler User / Gamer ernsthaft BENÖTIGT. Und wenn mans benötigt sind die Preise im Moderaten raum.

Aber wenn dann was rauskommt was nicht so overkill ist, wird gemeckert weil man doch mehr Performance sehen / haben möchte... aber das am besten zu Taschengeld preisen...

Bin mir grad nicht sicher ob das rüber kommt was Ich eigentlich sagen will. Aber Ich hoffs einfach mal :fresse:

greetz
Black2Soul
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh