ATI Radeon HD5000-Series (RV870) - [Speku-, News- & Sammelthread]

Status
Für weitere Antworten geschlossen.
radeon_logo5zi.png



lil2fww.png

Radeon HD5000 Series

Schon einige Wochen vor dem kürzlichen erscheinen der HD4000-Serie gab es die ersten Spekulationen bezüglich dem Nachfolge-Chip RV870. Nachdem der RV770 mit durchschlagendem Erfolg die Mittelklasse erobert, soll die High-End-Variante des RV870 vermutlich mit 2000 Shader-Einheiten bestückt werden.
Die ersten Quellen gehen von einem Release gegen Ende 2008 aus, wahrscheinlicher ist aber ein Release Anfang 2009, anschließend soll noch in der ersten Hälfte 2009 eine Dual-Lösung erscheinen.



Laut den letzten Meldungen von hardspell.com soll der RV870 folgende Technische-Eigenschaften besitzen.
Kerngröße: 140mm²
ALUs: 192 (5SP)
Anbindung: 256bit
Strukturgröße: 45nm (40nm) ?!?
Faktor 1.2 schneller als der RV770
Der R800 soll "möglicherweise" auf eine native Dual-Core-Architektur setzen, die Infos sind mit Vorsicht zu genießen (wie alle anderen auch).



Die Technik (voraussichtlich)
Code:
-Chip = RV870
-Strukturgröße = 40nm
-Chip Größe = 140mm²
-Transistoren = unbekannt
-Chiptakt = unbekannt
-Shadertakt = unbekannt
-Shader-Einheiten (MADD) = 960 
-FLOPs (MADD/ADD) = unbekannt
-ROPs = 24
-Pixelfüllrate = unbekannt
-TMUs = unbekannt
-TAUs = unbekannt
-Texelfüllrate = unbekannt
-Vertex-Shader = unbekannt
-Unified-Shaderin Hardware = unbekannt
-Pixelshader = unbekannt
-Vertexshader = unbekannt
-Geometryshader = unbekannt
-Speichermenge = unbekannt
-Speichertakt = unbekannt
-Speicherinterface = 384 bzw. 256
-Speicherbandbreite = unbekannt

Die Modelle (voraussichtlich)
Code:
- "HD5850" (Spezifikationen folgen)
- "HD5870" (Spezifikationen folgen)
- "HD5870X2" (Spezifikationen folgen)

Sonstiges
Code:
-
-
-


Newsarchiv
Bitte denkt daran dass alle Angaben ohne Gewähr sind und aus Spekulationen hervorgehen.​

User-Infos
 
Zuletzt bearbeitet:
:bigok:

Genau, Daumen hoch.
Habe nur mehr ATI Karten, daher auch mein Name, jedoch besaß auch 3-4 NV Karten, aber ab 9800 Pro nur mehr ATI,- und hatte bis auf 1-2 Mal wo bei der Installation der Rechner Neu startet keine Probleme mit ATI Treibern und verwende zu 80% immer den aktuellsten, gar auch Betas.
Dies muss an der oft äusserst unsauberen Deinstallation des alten ATI Treibers bei vielen liegen oder dem einfach nur "Drüberbügeln" ....
denn dem ist nicht sooo einfach!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Grinsemann
hier könnte es wirklich noch ne weile Länger dauern, denn NV ist immernoch größer als AMD/ATI im Grakamarkt vertreten, vor allem, die stecken Geld/Zeit in die Spieleentwicklung mit rein...
Wenn NV nix in DX11 zu bieten hat, dann wird wohl so an Spielen nicht viel kommen.

Ähnliches Beispiel war ja damals mit den 6800er Karten von NV und SM3, klar kamen irgendwann mal Games, aber das waren eher die Ausnahmen bis dann flächendeckend mit den X1x00 und GF7x00 Karten SM3 zu hauf ans Volk gebracht wurde...

Abwarten und Tee trinken...

Wenn die Performance im Gegensatz zum Optikzuwachs genau so mies ist wie bei DX10, dann kann man getrost auch drauf verzichten.
 
Ja als die 6000er Reihe raus kam,war doch Splinter Cell Chaos Theory das erste Spiel mit Shader 3.0. Die Grafik war schon der Hammer damal :). Was ich schade finde ist, dass irgendwie DX10.1 nicht so stark durchsetzen kann, da Nvidia natürlich jedem Spieleentwickler in den Arsch kriecht z.B. Ubisoft Assassins Creed!
 
Schauen wir mal wie es nach dem Release der ersten DX11 fähigen Karte von ATI ausschaut. Ob es bis dahin schon etwas gibt, ohne dass nvidia eine DX11 fähige Graka auf dem Markt hat ?
 
Neja am 18. April 2004 kam von CB ein Bericht über die 6800er Karten, Splintercell kam laut Wikipedia am 30. März 2005.
Das ist fast ein Jahr Unterschied in dehnen man keine SM3 Games hatte, obwohl es Karten gab.
 
Wenn die Performance im Gegensatz zum Optikzuwachs genau so mies ist wie bei DX10, dann kann man getrost auch drauf verzichten.

DirectX 11 soll auch neue Features bei heutigen DirectX 10-Karten ermöglichen, wobei es sich dabei handelt, ist aber noch unklar. DirectX 11 wird es Entwicklern ermöglichen, die Grafikchips nicht nur für Grafik, sondern als parallelen Prozessor zu verwenden. Auch die Unterstützung von Mehrkern-Prozessoren wird durch Multi-Threading verbessert. Tessellation soll die Grenze zwischen vorberechneten und in Echtzeit berechneten Szenen verwischen. Einen Grafischen Vergleich von DX10.1 und DX 11 gibt es auch, finde ihn aber gerade nicht.
Mein Gefühl sagt mir, dass wir einen WOW:eek: - Effekt erleben werden. Es wird nicht länger dauern wie der Umstieg vom Singlecore auf den Dualcore. Bis es soweit ist werden auch schon einige Games draussen sein die diese Technologie unterstützen. Wie gut diese Games sein werden und welches Genre es zuerst sein wird, werden wir noch sehen. Ich habe ja schon geschrieben, dass NV die Finger von DX10 lässt. Statt dessen werden die sich richtig auf DX11 konzentrieren. Finanzielle Mittel fliessen zweiffelslos in die Spieleindustrie...deswegen wird es derzeit auch nur refreshs der Erfolgskarten geben...was auch noch ausreicht, aber um zu einem späteren Zeitpunkt wieder neu auftrumpfen zu können. AMD/ATI hat zwar schon DX11 angekündigt, aber das ist eben Marketing ;).

Was aber auch noch interessant wird ist der DIE shrink und demzufolge auch Abwärme und Energiesparthemen die wieder aufgegriffen werden.
Der Energieverbrauch der gesamten Karte sinkt ja nicht wirklich, nur der Verbrauch des eigendlichen Kerns im Verhältnis zum Vorgänger. Da folgende Karten eben Multi-GPUs sind wird auch der Verbrauch einer Karte emens steigen. Ich denke das alle die sich ein 650W NT gekauft haben spätestens bei CF wieder auf ein neues zurückgreifen müssen.

€dit: ich habe irgendwo gelesen (google macht möglich) das der RV 870 Dual GPUs und der R 800 2x Dual , also "X4" benannt werden.
Zudem erhoffe ich mir einen Verhältnismäßigen leiseren Lüfter-> neues Kühlsystem !?`Es kann ja nicht angehen, dass man sich für Grakas ne WAKÜ kaufen muss damit es erträglich wird neben dem PC zu sitzen.
 
Zuletzt bearbeitet:
Ich denke mal, dass meine 4850GS bis zum Erscheinen der 5850/70 im Sys bleiben wird, Leistung habe ich bis Dato genug.
Ich frage mich, ob der R770 von DX11 noch etwas profitieren kann oder von Ati dem ein Riegel vorgeschoben wird.
 
warum sollte er das? Das wird doch von Microsoft ferigegeben und nicht von ATI...es sei du meinst die Treiber...aber das wäre ja ne absolute Frechheit, könnte ich mir nicht vorstellen.

€dit:
Neja am 18. April 2004 kam von CB ein Bericht über die 6800er Karten, Splintercell kam laut Wikipedia am 30. März 2005.
Das ist fast ein Jahr Unterschied in dehnen man keine SM3 Games hatte, obwohl es Karten gab.

das ist richtig, aber dann überschlugen sich die Ereignisse und im September 2005 kahm dann auch FEAR raus...damals eins der Hardwarehungrigsten Games überhaupt.
 
Zuletzt bearbeitet:
Neja wie oben schon gesagt meine ich damit die Zeit zwischen Erscheinen SM3 Karten und SM3 Games... und das ist fast ein Jahr.
Sollte es nur ähnlich hier passieren, dann werden wir vor Mitte/Ende 2010 keine DX11 Games zu gesicht bekommen.

Und mal ehrlich, was DX10 am Anfang versprochen hat, zumindest laut diversen Tests von Zeitschriften musste das ja der ober burner werden. Und was war? Pustekuchen, nix als heiße Luft, DX10 sieht imho in heutigen Games nur minimal besser aus als DX9 im gleichen Game und dabei ist die DX9 Berechnung idR deutlich flotter...
 
Deswegen kaufe ich mir die 2. 4870 1GB lieber jetzt noch, dann habe ich wie es aussieht noch was länger davon und ist evtl auch lohnenswert auf die Zeit gesehen.
 
Zudem erhoffe ich mir einen Verhältnismäßigen leiseren Lüfter-> neues Kühlsystem !?`Es kann ja nicht angehen, dass man sich für Grakas ne WAKÜ kaufen muss damit es erträglich wird neben dem PC zu sitzen.

Ich weiss nicht mehr genau wo (vllt CB), aber ich hatte vor garnicht so lange ne news gelesen, wo ATI bekannt gab in zusammenarbeit ein neues kühlsystem zu entwicklen, dass die vaporX techonolgie benutzt(mehr oder weniger die, die auf den sapphire toxic karten benutzt wird).
 
:eek: würde ja quasi bedeuten die Grakapreise werden unendlich explodieren wenn alle semi WAKÜ haben (müssen)...oder bin ich jetzt im falschen Film?

haste noch den Link ?
 
das hört sich schon plausiebler an

€dit: natürlich ist in zusammenarbeit mit der semi WAKÜ ala Toxic die nanospreader Architektur noch wirksamer..klar, kann mir aber kaum vorstellen, dass soetwas zum Normalfall werden sollte. Kostengünstiger ist ein +, aber ne benötigte WAKÜ eben gegenteilig. Vor allem gibts auch jede menge die solche Karten garnicht kaufen wollen wegen der Flüssigkeiten und vor allem wegen der horensen Preise.

€dit2: danke für die Links
 
Zuletzt bearbeitet:
Mal gucken ob die neuen Karten ebenso auch mit der billigeren und effizienteren Kühlern released werden :)

noch was zu den Treibern, diese wirklich mehr oder weniger die Karte ausbremsen!

Ati sollte das endlich mal in den Griff bekommen und endlich richtige Treiber (nicht das die jetzigen schlecht wären) rausbringt ;)
 
Wenn MS jetzt mit DX11 auf Ray Tracing setzt, hat sich das Thema 5850/70 & GTX xxx eh erledigt!
Dann wird ein Ci7 den Job um einiges besser machen als jede Karte im nächsten Jahr.
 
so abrupt kann ich mir das nicht vorstellen, da es noch keine Games gibt die das unterstützen ;)
 
Kommt es bei Raytracing nicht auch auf die Rohrechenleistung an? Da sind doch die aktuellen GPUs wesentlich leistungsfähiger als selbst der Nehalem. Stecke nicht so in der Raytracing Materie.
 
irgendwie versteh ich diese raytracing sache noch nicht so ganz... heißt das das der prozessor das DX11 jetzt übernimmt oder wie? heißt die graka is für dx11 gar nicht mehr zuständig? das würde ja dann heißen is egal was ich kaufe, das ding hat DX11 ^^
 
Kommt es bei Raytracing nicht auch auf die Rohrechenleistung an? Da sind doch die aktuellen GPUs wesentlich leistungsfähiger als selbst der Nehalem. Stecke nicht so in der Raytracing Materie.

der Ci 7 ist schon gut darauf getrimmt, aber ganz ohne Graka / onboardgrafik wirds nicht gehen.
 
Raytracing wird so bald noch nicht kommen, mit Sicherheit nicht...

Vor allem, da für Raytracing extrem viel CPU Power vorhanden sein muss. Und das ist noch nicht der Fall, so paar simple Szenen nachstellen geht sicher ganz Einfach und brauchbar, aber ein komplettes Games mit der Effektanzahl und Optik wie es heutzutage schon ist, schaft kein Quadcore alleine, auch nicht die neuen Intels.

Raytracing hat seine Stärken, genua so wie die Herkömmliche Methode seine Stärken hat. Andererseits hat Raytracing auch erhebliche Nachteile, wo die Herkömmliche Methode hingegen Punktet.
Mal abwarten was kommt... so schnell wirds aber mit Sicherheit nicht gehen.

Zumahl, wenn man Bedenkt das die Entwicklungszeit von Games teilweise 2-3Jahre überschreitet, dann könnt ihr euch ausrechnen wann die ersten Raytracing Games kommen werden...
Entwickler von Games werden mit Sicherheit nicht ihre Arbeit über den Haufen werfen nur um auf Raytracing zu setzen.

Im übrigen wäre die Sache auch wieder ein derber Rückschritt, denn eigentlich ist ne Berechnung auf ner dedizierten Grafikkarte immer ner Software/CPU Berechneten Lösung vorzuziehen. Das klingt so alles in Summe eher danach, als würde Intel mal wieder auf Kundenfang gehen, denn schließlich hällt ja Intel mehr oder weniger dort Lizenztechnisch alles unter einem Hut.
 
Wenn MS jetzt mit DX11 auf Ray Tracing setzt, hat sich das Thema 5850/70 & GTX xxx eh erledigt!
Dann wird ein Ci7 den Job um einiges besser machen als jede Karte im nächsten Jahr.
Nee, mit Sicherheit nicht. Erstens wird DirectX nicht ausschliesslich auf Raytracing setzen. Ich bin mir nicht mal sicher, ob überhaupt entsprechende Funktionalität in die API implementiert wird. Und zweitens sind selbst bei Raytracing Grafikkarten immer noch haushoch überlegen. Da braucht man nur mal die Rechenleistung zu vergleichen. Und die theoretische Rechenleistung ist bei Nehalem ja nicht gestiegen. Die Rechenwerke können durch SMT lediglich besser ausgelastet werden.
 
Bevor Raytracing auf Massenfähig wird, können wir erstmal schauen, was Intel mit seinen Larrabees schafft. 48 (veränderte) Pentium-Kerne hören sich ja schonmal nach Etwas an.
 
Nee, mit Sicherheit nicht. Erstens wird DirectX nicht ausschliesslich auf Raytracing setzen. Ich bin mir nicht mal sicher, ob überhaupt entsprechende Funktionalität in die API implementiert wird. Und zweitens sind selbst bei Raytracing Grafikkarten immer noch haushoch überlegen. Da braucht man nur mal die Rechenleistung zu vergleichen. Und die theoretische Rechenleistung ist bei Nehalem ja nicht gestiegen. Die Rechenwerke können durch SMT lediglich besser ausgelastet werden.
ja aber bisher nutzen Grafikkarten ausschließlich raterising und sind dafür optimiert, völlig anders x86 Prozessoren. Klar das Intel die Werbetrommel rührt, haben sie doch die Möglichkeit zu 100% in den VGA Markt mit x86 einzusteigen.
4+4 Kerne beim Bloomfield sind nur der Anfang, es wird nicht mehr lang dauern und Ray tracing wird unmittelbar verfügbar.
An der QuakeWars Demo wird gearbeitet.
 
ja aber bisher nutzen Grafikkarten ausschließlich raterising und sind dafür optimiert
Shader sind doch ziemlich universelle Rechenwerke. Die kannst du für alles mögliche verwenden. Wichtig ist nur, dass Frontend und Backend zusammenpassen. Und das Frontend setzt bisher eben auf Rasterisierung.

4+4 Kerne beim Bloomfield sind nur der Anfang
Man sollte hier nicht vergessen, Rechenwerke gibt es bei Nehalem halt auch nur für 4 Kerne. Die restlichen "4 Kerne" sind nur logisch, nicht physisch. Um aktuelle Spiele mit Raytracing besser zu machen, braucht es noch mindestens Faktor 10, wenn nicht sogar eher mehr an höherer Leistung als aktuelle GPUs. Und aktuelle Prozessoren liegen immer noch um Faktor 20 und mehr unter aktuellen GPUs. Da kannst du dir ja ausrechen, wie gross die Diskrepanz an vorhandener und benötigter Leistung ist. Da kann Intel noch so viele Demos zeigen. Das ist letztendlich alles Spielerei, weil nicht alltagstauglich. Dafür benötigt es noch viel mehr Detail, Auflösung, Effekte, usw. Und das Problem an Raytracing ist, dass der Rechenaufwand dann sehr schnell exponentiell ansteigen kann.
Wie auch immer, für Echtzeit-Raytracing braucht es noch einige Jährchen. Sowohl was Software als auch Hardware betrifft.
 
Intel könnte das aber alles schaffen. Man braucht sich nur Polaris von 2007 anschauen, 80 Kerne, 1 Tflop, 60 Watt. Leider keine x86 CPU:wall:
 
Dann schau dir mal die Planungen von Tera Scale an. Bis ein marktreifes Produkt dabei heraus springt, vergehen auch noch mindestens 5 Jahre. Und so wirklich beeindruckend ist das alles nicht mal. Der RV770 zB hat diese Performance bei halber Effizienz schon HEUTE, 2D/3D Logik inklusive.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh