ATI Radeon HD5000-Series (RV870) - [Speku-, News- & Sammelthread 1.1]

Status
Für weitere Antworten geschlossen.
radeon_logo5zi.png



lil2fww.png

Radeon HD5000 Series

Schon einige Wochen vor dem kürzlichen erscheinen der HD4000-Serie gab es die ersten Spekulationen bezüglich dem Nachfolge-Chip RV870. Nachdem der RV770 mit durchschlagendem Erfolg die Mittelklasse erobert, soll die High-End-Variante des RV870 vermutlich mit 2000 Shader-Einheiten bestückt werden.
Die ersten Quellen gehen von einem Release gegen Ende 2008 aus, wahrscheinlicher ist aber ein Release Anfang 2009, anschließend soll noch in der ersten Hälfte 2009 eine Dual-Lösung erscheinen.



Laut den letzten Meldungen von hardspell.com soll der RV870 folgende Technische-Eigenschaften besitzen.
Kerngröße: 140mm²
ALUs: 192 (5SP)
Anbindung: 256bit
Strukturgröße: 45nm (40nm) ?!?
Faktor 1.2 schneller als der RV770
Der R800 soll "möglicherweise" auf eine native Dual-Core-Architektur setzen, die Infos sind mit Vorsicht zu genießen (wie alle anderen auch).



Die Technik (voraussichtlich)
Code:
-Chip = RV870
-Strukturgröße = 40nm
-Chip Größe = 140mm²
-Transistoren = unbekannt
-Chiptakt = unbekannt
-Shadertakt = unbekannt
-Shader-Einheiten (MADD) = 960 
-FLOPs (MADD/ADD) = unbekannt
-ROPs = 24
-Pixelfüllrate = unbekannt
-TMUs = unbekannt
-TAUs = unbekannt
-Texelfüllrate = unbekannt
-Vertex-Shader = unbekannt
-Unified-Shaderin Hardware = unbekannt
-Pixelshader = unbekannt
-Vertexshader = unbekannt
-Geometryshader = unbekannt
-Speichermenge = unbekannt
-Speichertakt = unbekannt
-Speicherinterface = 384 bzw. 256
-Speicherbandbreite = unbekannt

Die Modelle (voraussichtlich)
Code:
- "HD5850" (Spezifikationen folgen)
- "HD5870" (Spezifikationen folgen)
- "HD5870X2" (Spezifikationen folgen)

Sonstiges
Code:
-
-
-


Newsarchiv
Bitte denkt daran dass alle Angaben ohne Gewähr sind und aus Spekulationen hervorgehen.​

User-Infos
 
naja wenn man es schafft 2 GPUs auf eine Karte zu kriegen, wird man ja wohl auch 2 GPUs auf einen DIE kriegen ;) ... wenn solche dual-core lösungen zum standart werden, wird es auch eine breitere optimierung und unterstützung geben um die performance auszunutzen ... und nicht wie heute das jedes 3. spiel mal dual lösungen unterstützen und selbst dann nur mit geringem mehrwert
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Genau, außerdem sollte man bedenken, dass GPUs seit DX10 / SM 4.0 (G80 und R600)mehr oder weniger schon ein natives Multicore Design (Skalare Einheiten !) besitzen,
nur halt alles in einen Core integriert, statt etwa 2 oder mehr einzelne Cores auf ein DIE zu packen. ;)
 
Zuletzt bearbeitet:
immer mehr Kerne bringt nur dem Marketing etwas,hoffe das die nm-Jagd schnell vorbei ist,dann müssen sie endlich neue Wege gehen.
Die Verkleinerung geht jetzt schon zuweit,wir brauchen jetzt schon Triebwerke damit die Dinge nicht verglühen.
 
Zuletzt bearbeitet:
Die Verkleinerung geht jetzt schon zuweit,wir brauchen jetzt schon Triebwerke damit die Dinge nicht verglühen.

naja, so laut sind sie ja schon bald...wenn die nächste Gen nicht leiser ist, dann muss wieder ne wakü her. Das ist das einzige im Rechner was laut ertönt und dazu noch wirklich störend. Was bringen einem da Silentsachen wenn die Graka bald lauter ist als die Frau mit dem Fön in der Hand^^
 
naja wenn man es schafft 2 GPUs auf eine Karte zu kriegen, wird man ja wohl auch 2 GPUs auf einen DIE kriegen ;) ... wenn solche dual-core lösungen zum standart werden, wird es auch eine breitere optimierung und unterstützung geben um die performance auszunutzen ... und nicht wie heute das jedes 3. spiel mal dual lösungen unterstützen und selbst dann nur mit geringem mehrwert

Soll doch mit dem Hydra von Lucid gar kein Problem mehr sein.

Wenn es so ist wie berichtet wird, so wird man die vll. bald nicht nur auf Mainboards finden sondern auch auf den Dual GPU Grakas.
 
Zuletzt bearbeitet von einem Moderator:
wie ist das eigentlich wenn man ein board mit pci-e 1.1 hat? wieviel leistungsverlust hat man dann gegenüber jemanden der ein pci-e 2.0 board hat?

frage bezieht sich auch auf die jetzigen karten, die 4890 z.b.

und eben die kommenden, wenn man das mal so abschätzen könnte.
 
wie ist das eigentlich wenn man ein board mit pci-e 1.1 hat? wieviel leistungsverlust hat man dann gegenüber jemanden der ein pci-e 2.0 board hat?

frage bezieht sich auch auf die jetzigen karten, die 4890 z.b.

und eben die kommenden, wenn man das mal so abschätzen könnte.

Kommt stark auf das Spiel drauf an, bei CoD war der Unterschied recht gross(~10%), bei anderen Spielen gibt es dafür garkeinen Leistungseinbruch.
 
@van

Ist unterschiedlich, in der Regel hängt PCI-E 1.1 um 0 bis 20% hinterher.
 
wie ist das eigentlich wenn man ein board mit pci-e 1.1 hat? wieviel leistungsverlust hat man dann gegenüber jemanden der ein pci-e 2.0 board hat?

frage bezieht sich auch auf die jetzigen karten, die 4890 z.b.

und eben die kommenden, wenn man das mal so abschätzen könnte.

Sorry, aber was hat das in dem Thread hier verloren ?? Außerdem hast du das doch schon im anderen gepostet ??!
 
Noch 11 Tage bis zum Vorstellungstermin und immernoch keine 100%en Infos oder Tests! So eine NDA hab ich noch nie erlebt! :-) Bin mega gespannt! *g*
 
Zuletzt bearbeitet:
Sorry, aber was hat das in dem Thread hier verloren ?? Außerdem hast du das doch schon im anderen gepostet ??!

weil es sich auf die neuen karten bezieht, und die profis hier können das doch sicher abschätzen, aber ist jetzt auch egal, hab mich entschlossen mein board zu behalten.
 
da gibt es doch keine Mikroruckler, oder verstehe ich was falsch?

Das ist schon richtig... Aber der SFR Modus erfordert einen heiden Mehraufwand bei der Lastverteilung und funkt auch nicht für alle Szenen.
Beispielsweise muss eine Rauchdarstellung die sich über das komplette Bild zieht von beiden GPUs berechnet werden, weil beide wissen müssen, wie sich der Rauch ausbreitet.

Im AFR hingegen rechnet zwar auch jede GPU das komplette Bild, aber eben nur jedes zweite bei zwei GPUs oder jedes vierte bei vier.
Diese Vorrausberechnung der Bilder und der Fakt, das diese unterschiedlich schnell ausgegeben werden führt zu MR.

Wobei ich sagen muss auch bei Strich 30FPS sind mir MR mit der HD4870X2 nicht wirklich aufgefallen. Vieles wird auch viel zu hochtrabend abgehandelt. Und ne Menge Leute schreien über MR obwohl sie nichtmal Ansatzweise so ein System im Einsatz erlebt haben.

iwann muss man sich eh was neues einfallen lassen,wenn man mit der verkleinerung am ende ist. ich frag mich wieso man noch nicht auf die idee gekommen ist native dual-cores bei grafikkarten zu entwickeln/produzieren ,der schritt ist ja bei den CPUs auch schon lange erfolgreich umgesetzt worden und die zukunft liegt nunmal im multicore und nicht immer mehr mhz etc

Weil Dualcores im GPU absolut Sinnfrei sind...
GPUs bestehen seit Jahr und Tag aus einzellnen verschiedenen Recheneinheiten. Was bringt es die komplette GPU gänzlich doppelt in einen DIE zu packen? Absolut gar nix, dann kannst du auch gleich nur die Ausführungseinheiten verdoppeln, sparst noch DIE Fläche und hast keine Probleme mit der Lastverteilung über beide Cores. Ebenso fällt der Fakt mit dem Doppelt gehaltenen Speicher weg...
 
Wobei ich sagen muss auch bei Strich 30FPS sind mir MR mit der HD4870X2 nicht wirklich aufgefallen. Vieles wird auch viel zu hochtrabend abgehandelt. Und ne Menge Leute schreien über MR obwohl sie nichtmal Ansatzweise so ein System im Einsatz erlebt haben.

Oh ja da muss ich dir voll zustimmen.
Wenn in irgendeinem Testaufbau etwas durch Messinstrumente festgestellt wurde meinen immer ein par, es sei DAS Problem schlechthin.
Das ist aber nicht nur bei Grafikkarten so ;)

Weil Dualcores im GPU absolut Sinnfrei sind...
GPUs bestehen seit Jahr und Tag aus einzellnen verschiedenen Recheneinheiten. Was bringt es die komplette GPU gänzlich doppelt in einen DIE zu packen?

Da hast du (leider) recht.
Sie müssten ja einfach mehr Recheneinheiten draufpacken. (versteh davon nicht viel :fresse:)
Ich glaub halt, dass das eine Marketingstrategie ist.
Dualcore hört sich einfach gut an ;)
 
Wobei ich sagen muss auch bei Strich 30FPS sind mir MR mit der HD4870X2 nicht wirklich aufgefallen. Vieles wird auch viel zu hochtrabend abgehandelt. Und ne Menge Leute schreien über MR obwohl sie nichtmal Ansatzweise so ein System im Einsatz erlebt haben.

Die meisten Leute sind aber auch nicht identisch mit dir. Das könnte doch bedeuten, dass die eine andere Wahrnehmung haben könnten oder nicht?
Ich denke das liegt ganz einfach daran, dass verschiedene Leute solche Ruckler verschieden wahrnehmen.

Ich hatte ein paar Jahre lang SLI bzw. CF, ich habe die Mikroruckler zunächst auch nicht bemerkt.

Mit dem Lucid Hydra wird es doch keine Mikroruckler mehr geben, ich verstehe nicht warum man noch über CF und SLI redet. Ist doch anscheinend schon tot.
 
Dazu muss Hydra aber erstmal auf den Markt kommen - nun ja, sollte in absehbarer Zukunft so weit sein -> MSI hat ja schon ein entsprechendes P55 Board ("Big Bang") angekündigt ! ;)

Drei verschiedene Versionen des Hydra Chips wird es geben und von MSI dazu auch drei verschiedene Boards.


Vermutung zur Fähigkeit der Chips:

Eine Variante wird es ermöglichen, zwei ATi-Beschleuniger zu kombinieren, zum Beispiel eine Radeon HD 4890 mit einer Radeon HD 4830.

Eine weitere erledigt denselben Job auf den Seiten Nvidias (zum Beispiel GeForce GTX 260 mit GeForce GTS 250),

während die dritte gemischte ATi- und Nvidia-Karten zulassen soll. Gerade die Realisierung letzterer Variante hört sich dabei am merkwürdigsten an.


Drei PCIe-x16-Slots werden dabei die Grafikkarten fassen können, die dank des Hydra-Chips auch logisch bei Vollbestückung mit den vollen 16 PCIe-Lanes angesteuert werden können. Zusätzlich gibt es noch zwei PCIe-x1- sowie zwei normale PCI-Slots.


http://www.computerbase.de/news/har...009/august/msi_p55_big_bang_lucid-hydra-chip/
 
Zuletzt bearbeitet:
@Van:

Nunja... ich hatte zu der Zeit, wo ich vom P35 (PCIe 1.1) auf P45 (PCIe 2.0) umgestiegen war dasselbe gefragt :)

Hatte zu der Zeit 2 4850er und hatte die Gelegenheit sowohl mit dem P35 zu Benchen als auch mit dem P45er... also der Unterschied war eher gering (so im 10% Bereich, zumindest beim 06er, beim Vantage waren es um die 25% - was aber auch nicht soooo extrem ist)

Das P35er hatte 1x16 + 1x4 PCIe 1.1 (also 2x 4fach 1.1 im Crossfire)
Das P45er hatte 1x16 + 1x8 PCIe 2.0 (also 2x 8fach 2.0 = 2x 16Fach im 1.1er Standard gerechnet)

Also der Verlust ist bei den derzeitigen Karten nicht so extrem würde ich sagen.

Wird aber garantiert auch Games geben wo es auffällt :)

Mittlerweile kann ichs leider net mehr testen, hab schon lange kein PCIe 1.1 gesehen :)

- lass mich aber gern eines besseren Belehren :wink:

lg

Martin
 
Die meisten Leute sind aber auch nicht identisch mit dir. Das könnte doch bedeuten, dass die eine andere Wahrnehmung haben könnten oder nicht?
Ich denke das liegt ganz einfach daran, dass verschiedene Leute solche Ruckler verschieden wahrnehmen.

Ich hatte ein paar Jahre lang SLI bzw. CF, ich habe die Mikroruckler zunächst auch nicht bemerkt.

Mit dem Lucid Hydra wird es doch keine Mikroruckler mehr geben, ich verstehe nicht warum man noch über CF und SLI redet. Ist doch anscheinend schon tot.

Das will ich ja auch nicht bestreiten...
Mir geht es aber viel mehr und die Leute, welche nie so ein System gesehen haben und sich wichtig machen durch derartige Behauptungen...
Da gibts so viele Sachen die einfach durch hörensagen verschlimmert werden usw.

Wobei mich viel eher das Inputlag stören würde als die MR ;) vor allem bei schnellen Shootern merkt man das schon ein wenig, da sind MR das geringste übel.


Und zum anderen, die Frage ist doch, wird sich das ganze Durchsetzen, klingt zwar auf dem Papier nach ner super Sache, ob es sich durchsetzen wird und in welchem Maße es skaliert bleibt nach wie vor abzuwarten.
Und ich wette, einer der beiden großen, vllt auch Intel als dritter wird den Laden dann aufkaufen und das ganze für sich beanspruchen ;)
 
Das denke ich mal auch, gerade da Intel auf dem IDF den Chip schon mal vorgestellt und afaik auch schon mal auf einem X58 Board verbaut hat.
Dann hätte man sowohl bei Chipsätzen, auch auch Mulit GPU Chip die Nase vorne.

Nun gut, bis es erste Tests und handfeste Ergebnisse gibt könnte man noch ewig weiterdebatieren, daher würd ich sagen: Kommen wir mal wieder :btt:
 
Zuletzt bearbeitet:
Die Entwickler des hydrachips gehört ja bereits zu Intel soviel zum aufkaufen ^^
 
Wird mit der neuen Generation auch ATI-Stream verbessert? Zur zeit hat da nämlich nVidia die nase sehr weit vorn:(
 
nein da es weder cuda noch stream brauchen wird dank dx12, cuda wird sicherlich von NV selber weiterentwickelt soviel Mio wie die da schon reingesteckt haben aber solche Programme kann man dann ohne große probs dann selber entwickeln
 
Weil Dualcores im GPU absolut Sinnfrei sind...
GPUs bestehen seit Jahr und Tag aus einzellnen verschiedenen Recheneinheiten. Was bringt es die komplette GPU gänzlich doppelt in einen DIE zu packen? Absolut gar nix, dann kannst du auch gleich nur die Ausführungseinheiten verdoppeln, sparst noch DIE Fläche und hast keine Probleme mit der Lastverteilung über beide Cores. Ebenso fällt der Fakt mit dem Doppelt gehaltenen Speicher weg...
Für Multi- bzw Many-Core gibt es diverse Ansätze. Es kann daher bei GPUs ebenfalls Sinn machen. Gerade dort, weil GPUs hoch parallel aufgebaut sind. Der Vorteil liegt klar auf der Hand, einfachere Entwicklung, da modularer designed werden kann und einzelne Einheiten weniger komplex werden.

Wird mit der neuen Generation auch ATI-Stream verbessert? Zur zeit hat da nämlich nVidia die nase sehr weit vorn:(
Nicht wirklich. ATI hat als erster, soweit mir bekannt ist, vor einiger Zeit ein vollständiges OpenCL SDK bereitgestellt. Und die DirectX Compute Shader werden ja erst mit der kommenden DirectX Version interessant. Stream oder CUDA sind im Endeffekt völlig irrelevant für Endkunden.
 
Für Multi- bzw Many-Core gibt es diverse Ansätze. Es kann daher bei GPUs ebenfalls Sinn machen. Gerade dort, weil GPUs hoch parallel aufgebaut sind. Der Vorteil liegt klar auf der Hand, einfachere Entwicklung, da modularer designed werden kann und einzelne Einheiten weniger komplex werden.

Es gibt aber im Moment genug Probleme die eine Einführung von GPU-Systemen mit 4 Chips oder mehr im wege stehen. Alleine dadurch das sich der VRam nicht wirklich effektiv nutzen lässt habe ich genug Probleme im Bezug auf P/L.
 
Da hast du (leider) recht.
Sie müssten ja einfach mehr Recheneinheiten draufpacken. (versteh davon nicht viel :fresse:)
Ich glaub halt, dass das eine Marketingstrategie ist.
Dualcore hört sich einfach gut an ;)

Dualcore ist die weisse Flagge der CPU-Designer im Sinne von "Uns fällt nichts mehr ein was wir besser machen können, also packen wir 2 mal das Selbe drauf".
 
Zuletzt bearbeitet:
Für Multi- bzw Many-Core gibt es diverse Ansätze. Es kann daher bei GPUs ebenfalls Sinn machen. Gerade dort, weil GPUs hoch parallel aufgebaut sind. Der Vorteil liegt klar auf der Hand, einfachere Entwicklung, da modularer designed werden kann und einzelne Einheiten weniger komplex werden.

Neja es geht eher darum, das viele hier eher nen nativen Dualcore sehen wollen...
Sprich einen DIE mit zwei vollwertigen GPUs.
Und genau das macht wenig Sinn...
 
Neja es geht eher darum, das viele hier eher nen nativen Dualcore sehen wollen...
Sprich einen DIE mit zwei vollwertigen GPUs.
Und genau das macht wenig Sinn...

Das liegt einfach daran, dass die Leute nichts von Chipdesign verstehen und das müssen sie ja auch nicht.
Aktuelle GPUs haben bereits sehr viele Kerne, weil Grafikkarten für massiv parallele Aufgaben geschaffen wurden an denen viele Kerne gleichzeitig rechnen können.
 
Es gibt aber im Moment genug Probleme die eine Einführung von GPU-Systemen mit 4 Chips oder mehr im wege stehen. Alleine dadurch das sich der VRam nicht wirklich effektiv nutzen lässt habe ich genug Probleme im Bezug auf P/L.
Ich habe ja auch nicht von aktuellem Multi-GPU gesprochen. ;)

Neja es geht eher darum, das viele hier eher nen nativen Dualcore sehen wollen...
Sprich einen DIE mit zwei vollwertigen GPUs.
Und genau das macht wenig Sinn...
Doch, das macht durchaus Sinn. Nenne es von mir aus nicht Kerne, sondern Cluster oder dergleichen. Shader Cluster zB gibt es ja bereits.
 
Doch, das macht durchaus Sinn. Nenne es von mir aus nicht Kerne, sondern Cluster oder dergleichen. Shader Cluster zB gibt es ja bereits.

Das hat dann aber nix mehr mit dem eigentlich Multicoresachen zu tun...
Wie man die Ausführungseinheiten nun intern definiert interessiert wohl den Endkunden gar nicht.
Also ob da nun 4 oder 8 Shadercluster verbaut sind, ist egal. Hauptsache am Ende kommt was bei rum fürs Geld. Es ist und bleibt aber am Ende eine Singlecore GPU.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh