ATI Radeon HD5000-Series (RV870) - [Speku-, News- & Sammelthread 1.1]

Status
Für weitere Antworten geschlossen.
radeon_logo5zi.png



lil2fww.png

Radeon HD5000 Series

Schon einige Wochen vor dem kürzlichen erscheinen der HD4000-Serie gab es die ersten Spekulationen bezüglich dem Nachfolge-Chip RV870. Nachdem der RV770 mit durchschlagendem Erfolg die Mittelklasse erobert, soll die High-End-Variante des RV870 vermutlich mit 2000 Shader-Einheiten bestückt werden.
Die ersten Quellen gehen von einem Release gegen Ende 2008 aus, wahrscheinlicher ist aber ein Release Anfang 2009, anschließend soll noch in der ersten Hälfte 2009 eine Dual-Lösung erscheinen.



Laut den letzten Meldungen von hardspell.com soll der RV870 folgende Technische-Eigenschaften besitzen.
Kerngröße: 140mm²
ALUs: 192 (5SP)
Anbindung: 256bit
Strukturgröße: 45nm (40nm) ?!?
Faktor 1.2 schneller als der RV770
Der R800 soll "möglicherweise" auf eine native Dual-Core-Architektur setzen, die Infos sind mit Vorsicht zu genießen (wie alle anderen auch).



Die Technik (voraussichtlich)
Code:
-Chip = RV870
-Strukturgröße = 40nm
-Chip Größe = 140mm²
-Transistoren = unbekannt
-Chiptakt = unbekannt
-Shadertakt = unbekannt
-Shader-Einheiten (MADD) = 960 
-FLOPs (MADD/ADD) = unbekannt
-ROPs = 24
-Pixelfüllrate = unbekannt
-TMUs = unbekannt
-TAUs = unbekannt
-Texelfüllrate = unbekannt
-Vertex-Shader = unbekannt
-Unified-Shaderin Hardware = unbekannt
-Pixelshader = unbekannt
-Vertexshader = unbekannt
-Geometryshader = unbekannt
-Speichermenge = unbekannt
-Speichertakt = unbekannt
-Speicherinterface = 384 bzw. 256
-Speicherbandbreite = unbekannt

Die Modelle (voraussichtlich)
Code:
- "HD5850" (Spezifikationen folgen)
- "HD5870" (Spezifikationen folgen)
- "HD5870X2" (Spezifikationen folgen)

Sonstiges
Code:
-
-
-


Newsarchiv
Bitte denkt daran dass alle Angaben ohne Gewähr sind und aus Spekulationen hervorgehen.​

User-Infos
 
ati wird schon seine gründe haben und das nicht nur aus spass entwickeln...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ati wird schon seine gründe haben und das nicht nur aus spass entwickeln...

Im Moment ist ja nix bekannt, wie die einzellnen GPUs aufgebaut sind, Licht ins Dunkel bringen wohl erst DIE Shots der GPUs...
Und ich bezweifle wirklich sehr sehr stark, das es sich hier um Dualcore GPUs handeln soll, aus oben genannten Gründen...

Mag vllt sein, das ein RV870 exakt aus nem doppelten RV830 besteht oder ähnlichem, aber zu nem Dualcore macht ihn das noch lange nicht ;)
 
Ich denke es wird sich schon noch zeigen, was den nun kommt! Es sollte sich nicht gleich alle an die Gurgel springen, ist aber schön, dass wieder bischen leben in den Thread kommt! :-)
 
Ich denke auch mal, dass auch nur eine GPU mit eben mehr SPs usw. unter einem DIE stecken wird - wie dies sicher auch bei NVidias G(T)300 der Fall sein wird.
 
Ähm ne, soeinfach gehts dann doch nicht...

Von einfach redet auch keiner :angel:

Der Kosteneffekt beim Herstellen kleiner GPUs geht dir in dem Fall wieder verloren, wenn du ne native Dualcore Geschichte bauen willst, sprich alles in einem DIE.

Na klar, wenn der RV830 = 2xRV830, aber auf einem Die ist, sind die Yields bestimmt nicht besser da das Die einfach größer ist. Aber ein nicht nativer Dual-core hätte diese Vorteile.

Verwendest du hingegen 2 DIEs wie beim S775 Quad derzeit, musst du dir wieder Gedanken über die Kommunikation machen, gleichsam um die Speicheranbindung usw.
Ebenso würde dann wohl die von Lord angesprochene Hardware-Lastverteilung flach fallen...

Die Lösung könnte zB ein externer MC sein, wobei man hier wieder das Latenz-Problem hätte. Aber ich denke schon dass so etwas möglich ist. Und eine Hardware-Lastverteilung kann auch über einen gemeinsamen Controller laufen.

Beide GPU DIEs würden sich als einzellne GPUs melden und würden wohl einer Softwareansteuerung bedürfen...

Nein, das ist nicht nötig. Man kann das theoretisch alles in Hardware lösen, siehe oben.

Bei nem native Dualcore Design könnte man hingegen wohl die Speicheranbindung zum Beispiel für beide GPUs zusammen realisieren, somit auch das doppelte halten der Daten unterbinden.
Aber wenn man sowieso die GPU Ausführungseinheiten doppelt in einem DIE packt, warum sollte man dann nen Dualcore DIE bauen, wenn man auch gelinde gesagt nen "Singlecore" DIE mit doppelten Ausführungseinheiten bauen könnte...

Das Die einfach 2x zu nehmen ist sowieso Quatsch, da es mehrere Einheiten (zB UVD, Videoausgänge, etc pp) nur einmal geben muss. Wenn wir einen Dual-core sehen wird die Lösung wahrscheinlich ganz neu sein.

Letzteres bringt da sogar noch weitere Vorteile und erspart die wohl aufwendige Lastverteilung für beide GPUs...
Es spricht wirklich nicht viel für Dualcore/Multicore Design im GPU Bereich, vor allem nicht, wenn alles in einem DIE verbastelt wird.

Ich bin auch noch nicht überzeugt von der ganzen "Dual-core" Geschichte, aber möglich ist es mMn schon. AMD soll ja schon eine ganze Weile daran forschen.
 
Wann kommen denn endlich die neuen Grakas,meine 9800GTX wünscht sich die Rente herbei,die gut:)
Kanns bald nicht mehr abwarten...September,Oktober,wenn sie denn da erscheinen,ist noch so weit weg:mad:
 
Ich bin auch noch nicht überzeugt von der ganzen "Dual-core" Geschichte, aber möglich ist es mMn schon. AMD soll ja schon eine ganze Weile daran forschen.

Eben... mal sehn was sie aus dem Hut zaubern, wenn sie Zaubern können ;)
Aber man hört ja schon seit Jahren dass sich irgendwann GPU und CPU treffen werden, also werden sich wohl auch die Strukturen annähern...
Bin nicht so tief in der Technik mit Shadern etc. aber kann mir vorstellen dass man native Kerne doch auch per großem (vll bis 12mb) L3 Cache verbinden könnte oder? Dann muss nicht gleich der ganze vRam gedoppelt werden, wie es bei CF und X2-Karten ist?! Kann diese Technik nicht ggf. von den CPUs portiert werden?

Man war selten so gespannt auf eine neue Serie wie diesesmal! Sowohl auf die 5000er als auch auf den GT300...


PS: Preis für 4890 ist am We um weitere 25€ gefallen o_O (134€ aktuell) Wenn das kein Indikator für die immer näher rückende neue Serie ist...
 
Ich denke auch mal, dass auch nur eine GPU mit eben mehr SPs usw. unter einem DIE stecken wird - wie dies sicher auch bei NVidias G(T)300 der Fall sein wird.

(Nicht GPU steckt unter DIE, DIE ist unter GPU.)

Vorher warst du doch noch voll überzeugt von der Sache, nicht?

@w0mbat: Hardwarelösung für die Lastverteilung halte ich für ausgeschlossen. Klar könnte man es realisieren, aber wahrscheinlich bringt es nicht viel. Wenn dies so einfach und leistungstechnisch sehr gut ausgeführt werden könnte, wieso tat man es dann nicht schon bei der CPU?

BTW: Wenn man eine native DualDIE-GPU herstellen würde, was kommt dann da raus.. Entweder eine DualGPU oder eine einzelne GPU mit doppelten Recheneinheiten.

Meiner Meinung nach ist die 2. Lösung richtig, GPUs sind seit DX10 MultiDie-GPUs.
 
Jo stimmt - der Chip sitzt auf dem DIE - habs jetzt mit nem HS verwechselt. :fresse:

Überzeugt war ich nicht - hat mich halt ein wenig über diese Spekulation gewundert und deswegen nochmal nachgehakt was da wirklich dran ist.
 
Begriffsgewitter, ahoi! Ein Die ist ein Stück Substrat. GPUs bestehen nur aus einem Chip. Da ist nix mit "Multi-Die".

Gewitter? Bei mir ist strahlend blauer Himmel mit Sonnenschein.
Hast gewonnen. Auf die einzelnen Begriffe kommts an.:)

:btt:

Einigen wir uns?

Heatspreader > GPU > DIE > Transistoren
 
Die Lösung könnte zB ein externer MC sein, wobei man hier wieder das Latenz-Problem hätte. Aber ich denke schon dass so etwas möglich ist. Und eine Hardware-Lastverteilung kann auch über einen gemeinsamen Controller laufen.
ja das ist da das Problem, ein externer (vllt sogar dritter DIE) für den Memory Controller bzw. Dinge, welche nur einmal gebraucht werden und eine bestimmte Anzahl an DIEs mit den Ausführungseinheiten...

Nur bleibt eben da das Anbindungsproblem, wird das ganze extern auf mehrere DIEs ausgelagert, bekommen wir mit sicherheit Bandbreiten und Latenzprobleme, packt man alles in einem DIE zusammen um die Wege kurz zu halten haben wir wieder nen einzellnen großen Chip... (wo ich dann stark dran zweifel, das dieser den Dualcore Namen rechtfertigt)

Nein, das ist nicht nötig. Man kann das theoretisch alles in Hardware lösen, siehe oben.
Neja das schon, aber es bleibt nach wie vor das Anbindungsproblem zwischen den GPUs...

Das Die einfach 2x zu nehmen ist sowieso Quatsch, da es mehrere Einheiten (zB UVD, Videoausgänge, etc pp) nur einmal geben muss. Wenn wir einen Dual-core sehen wird die Lösung wahrscheinlich ganz neu sein.

Siehst du, das meinte ich oben, native Dualcore DIEs wo wirklich der komplette Core doppelt ausgelegt ist, wird es wohl nie geben, und ein "neuer" Weg, wie du ihn nennst, würde in meinen Augen nicht mehr das Wort Dualcore rechtfertigen, weils eben einfach kein Dualcore mehr ist...
Bei den CPUs gibt einen Core, welche über ne Schnittstelle mit dem zweiten/dritten/vierten usw. Core redet, ebenso hängt an der Schnittstelle die Anbindung zur Northbridge oder/und auch ein Memorycontroller usw.
Bei den GPUs hingegen gibts ein in sich geschlossenes massiv auf parallele Abarbeitung ausgelegtes System, welches man wie auch immer dann doppelt auslegen würde... Selbst wenn man die Einheiten raus nimmt, die nur einmal gebraucht werden, erschließt sich mir der Sinn noch nicht ganz dran... Denn wenn der Hersteller in der Lage ist, native diese beiden Cores zusammen in einem DIE zu vereinen, würde man auch einen einzigen großen DIE ohne besagte Nachteile hinbekommen, vereint man beide Cores in verschiedenen DIEs bleibt das Anbindungsproblem... (wobei man dann wirklich von Dualcore sprechen kann)
Ob das aber Sinn macht, bleibt wohl abzuwarten...


Ich bin auch noch nicht überzeugt von der ganzen "Dual-core" Geschichte, aber möglich ist es mMn schon. AMD soll ja schon eine ganze Weile daran forschen.

Möglich ist sicher vieles, aber ich denke mal, die meisten Leute müntzen einfach 1:1 CPU auf GPUs ab und sehen die GPU als eine Recheneinheit, was unter der Haube aber passiert, wissen wohl eher die wenigsten, sprich ebenso, das ein stures verdoppelt der kompletten GPU wenig Sinn macht...

Anders kann ich mir auch nicht erklären, warum so viele auf Dualcore/Multicore im GPU Bereich abfahren...

Aber lassen wir uns überraschen, vllt hat AMD ja irgendwie da noch was im Ärmel, diese Siteport Verbindung auf der aktuellen X2 war da sicher nur der Anfang... (wobei man erwähnen muss, das die derzeit nicht funktioniert, bzw. deaktivert ist)
 
Zuletzt bearbeitet:
der Chip sitzt auf dem DIE
Die = Chip

Wobei Die eher im Kontext der Struktur bzw des Aussehens verwendet wird. Also das, was auf den Wafer belichtet wurde. Chip eher allgemein für das aus dem Wafer herausgeschnittene Stück Silizium.


Sollten die Angaben stimmen, sag ich einfach nur mal Wow. Ein R850 mit sagen wir mal moderaten 750 MHz Takt würde über 7 TFLOPS erreichen. So langsam nähern wir uns Realtime Raytracing. :)
Vor nicht mal 2 Jahren waren wir noch bei 1 TFLOPS. Geht die Entwicklung so weiter, dürften in spätestens 5 Jahren ausreichend Ressourcen zur Verfügung stehen.
 
Dann wöre somit eine ganze Palette abgedeckt, mit RV830 / RV840 ,-R850 und dem RV870, --->also dies ein doppelter RV830.

Wie könnte dann aber der Preis aussehen, und die Performance einer RV870-er Karte,- sprich Dual RV830-er Gpu ---> Ca. doppelte Performance einer HD4890 1GB oder Wunschdenken?
 
Ich denke im September wird mans wissen und im Oktober die Karten kaufen können.
 
Vor nicht mal 2 Jahren waren wir noch bei 1 TFLOPS. Geht die Entwicklung so weiter, dürften in spätestens 5 Jahren ausreichend Ressourcen zur Verfügung stehen.

Ausreichend Ressourcen für was? Ist Raytracing noch nicht einsatzbereit?

Immerhin kann der Trailer von Transformers schon seit einer Ewigkeit ge"raytraced" werden. Eigentlich schade dass man nie was von dieser Technologie hört. Vielleicht ja wieder mit Transformers 2.. :d

http://www.pcgameshardware.de/aid,649413/Radeon-HD-4000-sind-Raytracing-tauglich/Grafikkarte/News/
 
Nochmal zum Thema DX11 und ob sich der Umstieg auf die neuen Grakas lohnt:

Vor ein paar Seiten wurde ja schon diskutiert, dass eine neue Xbox erst 2015 oder so kommen soll und dadurch jetzt noch kaum DX11 Spiele entwickelt werden würden.
Gerade bin ich über diese News gestolpert:
Playstation 4: Erste Gerüchte zur Technik aufgetaucht - Update: Neue Spekulationen

Das lässt hoffen dass bis zum Erscheinen einer neuen Konsolengeneration kein neues DX raus kommt...
--> DX11 wird sich wie DX9 etablieren

Ob unsere 5000er bis dahin noch aktuell sind weiß natürlich niemand ;)

Gruß
 
Ausreichend Ressourcen für was? Ist Raytracing noch nicht einsatzbereit?
Nein. Wenn Realtime Raytracing ausreichend Vorteile gegenüber aktuellen Rasterizern in Spielen bringen soll, braucht es schon noch einiges mehr als die gut 1 TFLOPS der HD 4870.
 
Nein. Wenn Realtime Raytracing ausreichend Vorteile gegenüber aktuellen Rasterizern in Spielen bringen soll, braucht es schon noch einiges mehr als die gut 1 TFLOPS der HD 4870.

So siehts aus. Der Berechnungsaufwand von Raytracing profitiert erst gegen Rastern wenn die geforderte Leistung noch ein ganzes Stück höher liegt als heute üblich. Evtl wird es sogar noch länger dauern da es ja im Moment zu einer gewissen Stagnation bei der 3D Darstellungsqualität kommt ganz einfach weil die Spiele zu teuer werden. Nicht ohne Grund gibt es heute nicht mehr viele die eine selbstprogrammierte Engine nutzen.
 
Hoppla. Laut ComputerBase u. ä. sollte es ja schon längst einsatzbereit sein.

Woher wisst ihr eigentlich so viel über diese Technologien? Bestimmt nicht aus dem Hardwareluxx..?

Gruss
 
Nein, hier laufen eher Leute rum, die viel kaufen, aber wenig wissen. ;) Da musst du dich an andere Seiten, diverse Artikel oder eine Universität wenden.
 
@maeni_93

Laut ComputerBase? Wo wurde denn etwas derartiges behauptet? Oder beziehst du dich auf Artikel zu Daniel Pohl und seiner Arbeit?
Dazu muss man natürlich sagen, dass das bisher relativ einfach gehaltene Tech-Demos sind. Sowas gibt es u.a. in der Demo Szene schon ziemlich lange. Einer meiner Favoriten ist hier immer noch "heaven 7". Sollte man definitiv mal gesehen haben, sofern einen die Thematik interessiert.
Kommerzielle Spiele betreiben hingegen einen ganz anderen Aufwand. Das kannst du dir selbst mal durchrechnen. Viele Millionen oder gar Milliarden Strahlen pro Frame, die durch etliche Berechnungsphasen geschickt werden, und das mindestens 30 bis 40 mal pro Sekunde, um eine ausreichend flüssige Darstellung zu garantieren. Da ist eine theoretische Peak Performance von 1 TFLOPS im Nu weg. Ganz zu schweigen von anderen Spielereien, die man noch auf die GPU auslagern möchte, wie zB Physik.

"Einsatzbereit" setzt übrigens noch etwas anderes voraus, nämlich eine entsprechende Softwarebasis. Und bisher gibt es noch kein standardisiertes Realtime Raytracing Framework. Mal schauen, was DirectX hier in Zukunft anbietet.
 
Zuletzt bearbeitet:
Eins der großen Probleme in Zukunft wird eben auch sein das die optischen Verbesserungen nicht mehr im Verhältniss zum Rechenaufwand stehen. Es gibt ja jetzt schon genug Stimmen die die Anforderungen mancher Spiele anzweifeln und sie gleich in die "schlecht Programmiert" Schiene schubsen, bestes Beispiel ist da wohl Crysis.

Raytracing wird noch Jahre brauchen bis es wirklich einsatzbereit ist. Und wenn die ersten Spiele erscheinen die voll darauf setzen wird es wieder genug Zweifler geben.
 
Es ist doch eh cleverer nochmal ca. 2 Monate länger zu warten bis die neuen Nvidias kommen. Ersten halt mal schauen was die so bringen und zweitens Preis fällt.
 
Es ist doch eh cleverer nochmal ca. 2 Monate länger zu warten bis die neuen Nvidias kommen. Ersten halt mal schauen was die so bringen und zweitens Preis fällt.

Ne finde ich nicht, wenn sie zuwenige Grakkas auf Lager haben bis Oktober für eine schlaue Verfügbarkeit, dann ist ja ok! Mit jedem Monat den sie evtl früher kommen, gewinnen sie einwenig Marktanteile! Scheiss TSMC!<---:-)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh