ATI Radeon HD5000-Series (RV870) - [Speku-, News- & Sammelthread 1.1]

Status
Für weitere Antworten geschlossen.
radeon_logo5zi.png



lil2fww.png

Radeon HD5000 Series

Schon einige Wochen vor dem kürzlichen erscheinen der HD4000-Serie gab es die ersten Spekulationen bezüglich dem Nachfolge-Chip RV870. Nachdem der RV770 mit durchschlagendem Erfolg die Mittelklasse erobert, soll die High-End-Variante des RV870 vermutlich mit 2000 Shader-Einheiten bestückt werden.
Die ersten Quellen gehen von einem Release gegen Ende 2008 aus, wahrscheinlicher ist aber ein Release Anfang 2009, anschließend soll noch in der ersten Hälfte 2009 eine Dual-Lösung erscheinen.



Laut den letzten Meldungen von hardspell.com soll der RV870 folgende Technische-Eigenschaften besitzen.
Kerngröße: 140mm²
ALUs: 192 (5SP)
Anbindung: 256bit
Strukturgröße: 45nm (40nm) ?!?
Faktor 1.2 schneller als der RV770
Der R800 soll "möglicherweise" auf eine native Dual-Core-Architektur setzen, die Infos sind mit Vorsicht zu genießen (wie alle anderen auch).



Die Technik (voraussichtlich)
Code:
-Chip = RV870
-Strukturgröße = 40nm
-Chip Größe = 140mm²
-Transistoren = unbekannt
-Chiptakt = unbekannt
-Shadertakt = unbekannt
-Shader-Einheiten (MADD) = 960 
-FLOPs (MADD/ADD) = unbekannt
-ROPs = 24
-Pixelfüllrate = unbekannt
-TMUs = unbekannt
-TAUs = unbekannt
-Texelfüllrate = unbekannt
-Vertex-Shader = unbekannt
-Unified-Shaderin Hardware = unbekannt
-Pixelshader = unbekannt
-Vertexshader = unbekannt
-Geometryshader = unbekannt
-Speichermenge = unbekannt
-Speichertakt = unbekannt
-Speicherinterface = 384 bzw. 256
-Speicherbandbreite = unbekannt

Die Modelle (voraussichtlich)
Code:
- "HD5850" (Spezifikationen folgen)
- "HD5870" (Spezifikationen folgen)
- "HD5870X2" (Spezifikationen folgen)

Sonstiges
Code:
-
-
-


Newsarchiv
Bitte denkt daran dass alle Angaben ohne Gewähr sind und aus Spekulationen hervorgehen.​

User-Infos
 
Ich denke mal nicht das sie schneller wird als die X2, sonst gäbe es keinen Grund sie so schnell vom Markt nehmen zu müssen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vielleicht halten alle dicht, weil AMD/ATI für die jenigen die vor der NDA Infos rausgeben eine däftige Strafe verpasst? Und diesmal nehmen es die Tester etc. ernster...
 
"Ich denke mal nicht das sie schneller wird als die X2, sonst gäbe es keinen Grund sie so schnell vom Markt nehmen zu müssen."

genau den satz habe ich in den unterschiedlichsten foren auch gelesen als die hd4870 rauskam und angeblich nicht so schnell sein könne wie eine
hd3870x2.

werfen wir mal einen blick in "alte" seiten öööööhm ich meine zeiten.

http://www.computerbase.de/artikel/...e_gtx_260_sli/23/#abschnitt_performancerating

hd4870 durchweg ohne AA/AF gleichschnell wie hd3870x2.
mit AA/AF durchweg ist die hd4870 schneller als eine hd3870x2. (15-35%)

die geschichte wiederholt sich immer wieder. :P


ich denke mir übrigens auch das amd nicht extra so ne action abzieht auf nem flugzeugträger am 10.09 für die presse nur damit dann tests schon vorher im netz erscheinen. dadruch wird die vorstellung für die presse zu nem witz. ich gebe meinem vorredner recht: dicke strafen für leute die gegen die NDA verstoßen was ich auch sehr gut finde persönlich.
 
Zuletzt bearbeitet:
Die 5870 muss eigentlich schneller als eine 4870 X2 sein.

Eine normale 4870 X2 ist ja nur 60-90% schneller als eine 4870 (je nach Konfiguration)

Also besser/schneller sollte sie schon sein. Die 4870 X2 ist ja ohne OC und Biosveränderungen Preis/Leistungsmäßig doch recht lahm...

Aber nach der 5er Serie könnte wirklich was ganz neues kommen, da sie ja jetzt so sehr wie noch nie Probleme bei der Fertigung haben... Bei der 4770 gabs ja massenhaft Chipausschuss...
 
Zuletzt bearbeitet:
Nvidia sind sowiso immer überteuert.

Ich liebe z.B. Intel, seit dem ich mir vor 4 Monaten den E4300 geholt habe aber ich würde mir niemals einen neuen und vor allem aktuellen zulegen...
Aber das ist ja ein ganz anderes Thema.

Die 4870 X2 war und ist in Preis/Leistung, Übertaktbarkeit und Kühlbarkeit 2 4870 unterlegen.
Die 259 ist aber Kühlertechnisch noch schlechter :d Da hilft nur eine Wakü...

E: Naja eigentlich heisst sie 295...
 
Zuletzt bearbeitet:
Nvidia sind sowiso immer überteuert.

Ich liebe z.B. Intel, seit dem ich mir vor 4 Monaten den E4300 geholt habe aber ich würde mir niemals einen neuen und vor allem aktuellen zulegen...
Aber das ist ja ein ganz anderes Thema.

Die 4870 X2 war und ist in Preis/Leistung, Übertaktbarkeit und Kühlbarkeit 2 4870 unterlegen.
Die 259 ist aber Kühlertechnisch noch schlechter :d Da hilft nur eine Wakü...

Die 259 kenn ich gar nicht ;) *gg*
 
Die 5870 muss eigentlich schneller als eine 4870 X2 sein.

Eine normale 4870 X2 ist ja nur 60-90% schneller als eine 4870 (je nach Konfiguration)

Also besser/schneller sollte sie schon sein. Die 4870 X2 ist ja ohne OC und Biosveränderungen Preis/Leistungsmäßig doch recht lahm...

Was erwartest Du vom Crossfire- und dem SLI-Gedöns?
 
Das Microruckler Problem mit der 5870 X2 wird sicher noch bestehen. Den am Catalyst kann man nicht mehr viel machen.
 
hmm ? meiner erfahrung nach ist es leichter ne x2 zu kühler als ein cf einfach da sofern man nit 4 slots hat die obere karte die heisse luft von der unteren rückseite nimmt und man da locker 10C mehr erreicht dann.
 
hmm ? meiner erfahrung nach ist es leichter ne x2 zu kühler als ein cf einfach da sofern man nit 4 slots hat die obere karte die heisse luft von der unteren rückseite nimmt und man da locker 10C mehr erreicht dann.

Nein das stimmt nicht, die Stock X2 macht bei ca. 35°C Raumtemp unter Dauervolllast auf dem ersten Core annähernd 100°C GPU Temp.
Einfach weil der Kühler so kunstruiert ist, das die Abwärme der einen GPU komplett auch über die zweite GPU geblasen wird.
Wenn im CF aber beide RV770er dicht zusammen hängen ist die Rückseitenabwärme der unteren Karte weit weniger als die Abwärme die durch die eine GPU der X2 erzeugt wird.



Aber sei es drum, Jungs hier gehts nicht um die X2 und auch nicht um deren P/L oder CF oder was auch immer...
Bleibt bei der HD5xxxer Reihe oder ich muss putzen...
 
Zuletzt bearbeitet:
Das man 3 Bildschirme anhängen kann finde ich sehr sehr geill! Hammer Feature! Jetzt kann ich endlich meinen Samsung 2263DX richtig gebrauchen, mit meinem Samsung 2232BW! :-)
 
Zuletzt bearbeitet:
Ich glaub auch nicht, dass das CF Gedöns bei der 5870 besser wird...

Oder gibts Hoffnung?
 
Zuletzt bearbeitet:
'Die Hoffnung ist im Allgemeinen ein schlechter Führer, aber ein guter Gesellschafter.'

Sicherlich ist es möglich, das merkliche Verbesserungen geschaffen wurden. Wird man allerdings erst ab Release erkennen können.
 
kommt die x2 denn eigendlich auch schon dieses Jahr?, oder nur die Singlevariante ?!? Mein Näschen sagt mir es wäre ein guter Zeitpunkt zum GTX3xx Release...weiss da schon wer was?
 
Ich hab auch was vom November gelesen. Aber ich glaube, du hast einen guten Riecher. Und ich denke, dass der GT300 auch noch dieses erscheinen wird.
 
Laut Gerüchten soll die X2 schon Ende November kommen, also in etwa zu der geschätzten Zeit, wenn NV ein G300 Paperlaunch mit einer geringen Anzahl lauffähiger Samples bringen will.

NV ihrerseits sollen aber auch schon an einer Dual Karte werkeln (wobei ich diese in 40nm für unwahrscheinlich erachte -> G300 in Vollbestückung soll ja eine TDP von 225 Watt haben, ergo wäre um die PCIe 2.0 Spezifikation einzuhalten nur ein Verbund zwei - extrem - kastrierter G300 (oder eine Senkung der Taktraten samt VCores notwendig) möglich, der aber unter Umständen nicht viel gegen die HD 5870 X2 zu bieten haben könnte, daher sag ich - NV Dual-Karte kommt erst im 28nm Refresh !).

Es bleibt spannend ! ;)
 
Zuletzt bearbeitet:
kommt nicht erst 32nm? Das dauert dann bei denen noch ewig.
 
Laut Gerüchten will TSMC schon 2010 in 28nm produzieren und nV dann der wichtigste Abnehmer sein, darum nehm ich mal an, dass sie einen 28nm G300 Refresh planen.

Wird sicher ne Weile dauern, bis die Yield Raten Massenproduktionstauglich sind, wenn man sieht, wie viel Probleme derzeit 40nm in Sachen Leckströme bereiten bzw. bereitet haben.

Bei CPUs ist der nächst kleinere Fertigungsschritt von 45nm ausgehend 32nm (etwa verwendet in Intel Gulftown und Clarkdale), aber bei GPUs sollte nach 40nm gleich 28nm kommen.
 
Laut Gerüchten soll die X2 schon Ende November kommen, also in etwa zu der geschätzten Zeit, wenn NV ein G300 Paperlaunch mit einer geringen Anzahl lauffähiger Samples bringen will.

ist auch ne Taktik um Verkaufszahlen in die Höhe zu treiben, falls die Karte im Vergleich zur GTX in die Hose geht...dann wiederrum würde ATI die x2 dringend benötigen und die GTX395 kann dann ruhig kastriert sein und immernoch besser da stehen...siehe GTX295 ;)

Nein Christoph, die 28nm Fertigung soll anfang nächsten Jahres aufgrund der Zusammenarbeit mit TSMC (Januar) schon statt finden. Ich denke mitte nächsten Jahres kommt ein Refresh mit dem Shrink auf 28nm auch für uns in die Läden ;)

---------- Beitrag hinzugefügt um 22:36 ---------- Vorheriger Beitrag war um 22:34 ----------

Laut Gerüchten will TSMC schon 2010 in 28nm produzieren und nV dann der wichtigste Abnehmer sein, darum nehm ich mal an, dass sie einen 28nm G300 Refresh planen.

Wird sicher ne Weile dauern, bis die Yield Raten Massenproduktionstauglich sind, wenn man sieht, wie viel Probleme derzeit 40nm in Sachen Leckströme bereiten bzw. bereitet haben.

Bei CPUs ist der nächst kleinere Fertigungsschritt von 45nm ausgehend 32nm (etwa verwendet in Intel Gulftown und Clarkdale), aber bei GPUs sollte nach 40nm gleich 28nm kommen.

au mann, da war ich wieder arg langsam, nur weil ich vergessen habe wie der verdammte Laden hieß :fresse:
 
32nm soll laut TSMC mitte 2010 kommen und 28nm anfang 2011 aber wers glaubt ....

Vor einigen Monaten haben sie afaik doch getönt sogar schon 2010 in 28nm produzieren zu können, aber ich glaub nach dem 40nm Debakel ist man nicht mehr so optimistisch -
dann wäre ein Zwischenschritt auf 32nm für 2010 (für G300 und RV870 Refreshes) denkbar.
 
iwann muss man sich eh was neues einfallen lassen,wenn man mit der verkleinerung am ende ist. ich frag mich wieso man noch nicht auf die idee gekommen ist native dual-cores bei grafikkarten zu entwickeln/produzieren ,der schritt ist ja bei den CPUs auch schon lange erfolgreich umgesetzt worden und die zukunft liegt nunmal im multicore und nicht immer mehr mhz etc
 
Eine GPU ist nunmal komplett anders aufgebaut als eine CPU - Dualkarten gibt es ja schon mit verschiedenen Konzepten seit einiger Zeit.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh