Weitere Spezifikationen zur AMD Radeon RX 470 und 460 veröffentlicht

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.274
Ort
Augsburg
<p><img src="/images/stories/logos-2013/amd-radeon-2013.jpg" style="margin: 10px; float: left;" />Nicht nur NVIDIA wird in den kommenden Tagen sein bisheriges Lineup an Pascal-Grafikkarten komplettieren und <a href="index.php/news/hardware/grafikkarten/39685-nvidia-praesentiert-die-geforce-gtx-1060.html">mit der NVIDIA GeForce GTX 1060</a> wieder die gehobene Mittelklasse bedienen – auch von AMD wird es demnächst weitere Polaris-Modelle geben, die man <a href="index.php/news/hardware/grafikkarten/39520-erstes-hands-on-mit-der-radeon-rx-460-470-und-480.html">namentlich zwar schon erwähnt</a>, sich bislang aber mit technischen Leistungsdaten zurückgehalten hatte. Nun soll AMD auf einer Veranstaltung in Australien weitere Spezifikationen zur kommenden Radeon RX 470 und RX 460 verraten...<br /><br /><a href="/index.php/news/hardware/grafikkarten/39761-weitere-spezifikationen-zur-amd-radeon-rx-470-und-460-veroeffentlicht.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So langsam sollte AMD mal zu Potte kommen. Ansonsten wirds nichts mit der Alleinstellung im Midrange Bereich.
Die RX480 will NVidia ja schon in Kürze kontern.
 
Naja die Infos über die 470 waren mir eig schon bekannt :)
Es sind ja auch schon lange Benches draußen.

Was mich aber interessiert ist ein vergleich mit HD7970 und R9 280X bei gleichem Takt da alle gleich viel Shader haben und ich genau wissen will wie viel % die neue Architektur bringt.
 
Anhand der RX470 4GB lässt sich dann gut der taktbereinigte Geschwindigkeitszuwachs zu GCN1 (79070Ghz bzw. R9 280X) und GCN3 (R9 380X) feststellen, ich sehe Polaris10 auch als direkten Nachfolger deser Chips.

Polaris11 beerbt dann wohl Bonaire, so lassen sich mit der RX460 die taktbereinigten Gewinne zu GCN2 ermitteln, wenn sie denn wirklich 896 Shader hat wie die 7790 bzw. R7 260X (869 oben kann nur ein Tipo sein).

Damit haben jetzt Polaris10 und 11 jeweils 12,5% bzw. ~14% mehr Shader (4 bzw. 2 Computeunits mehr), da sollte Vega, wenn wir Hawaii als Vorgänger nehmen, auf 3072 bis 3328 Shader rauskommen.

Einen Nachfolger vom ewigen Wiedergänger Pitcairn wird es wohl nicht geben, ich habe mich schon immer gefragt, wie sich die Kombination aus wenigen Shadern und rel. breitem SI lohnen kann. Nvidia spendiert ja schon seit längerem nur dem Highend-Chip ein 256Bit-SI, auch wenn man nach dem enttäuschenden GM106 etwas zurückrudert.
 
Zuletzt bearbeitet:
Was mich aber interessiert ist ein vergleich mit HD7970 und R9 280X bei gleichem Takt da alle gleich viel Shader haben und ich genau wissen will wie viel % die neue Architektur bringt.

Setzt für einen sinnvollen Vergleich dann aber auch vorraus, dass die anderen Einheiten entsprechend gleich viele sind? Wird das der Fall sein?
Im Moment ist bekannt, das A) Polaris mehr Tesselation Power bietet und B) in einigen Fällen die pro Takt/Einheit Performance etwas (up to 15% laut AMD) besser ist.
-> derartige Vergleiche sind allerdings stark von der genutzten Software abhängig... Wo bspw. Polaris mit DX12 (Stichwort ASync Compute) weniger stark profitiert wie Hawaii bspw. durch Optimierungen im Chip und wo Polaris in niedrigeren Auflösungen besser abschneidet als Hawaii, dafür in höheren etwas stärker einbricht, müssen die Vergleiche also sinnvoll gestaltet werden.
Ich sehe bei sowas wieder die falsch gezogenen Schlüsse im Vordergrund stehen ;)

Mal ein Beispiel, spiele mit recht hoher Tesselationanforderung werden mit den neuen GPUs profitieren. Da hat Tahiti jetzt schon das Nachsehen ggü. Tonga. Andere Spiele sind eher Bandbreitenlastig -> da hat Tahiti den Vorteil ggü. Tonga und Polaris.
Was wird also getestet?
 
Das stimmt absolut. Den VRAM müsste man definitiv übertakten und die Chips auch exakt 900MHz oder so takten, damit auf keinen Fall irgendwas limitiert.
 
Echt schade, dass AMD mit Highend-Karten solange auf sich warten lässt. Prinzipiell könnte man sagen, dass seit 2013 mit der R9 290X nix Lohnenswertes mehr kam. Die Fury X war mir immer viel zu teuer für die 20-30 % mehr Leistung und hatte auch zu wenig Speicher für den Highend-Bereich (zumindest bei der derzeitigen Spieleprogrammierung). Alle anderen Karten waren nicht mal ansatzweise signifikant schneller und das in einem Zeitraum von drei Jahren. Von mir aus hätten sie die Fury gleich überspringen können und Anfang dieses Jahr dafür einen Hammer rausgebracht, am besten mit 512 bit SI und stinknormalem GDDR5. Bei so niedrigem F&E Budget hätten sie bei HBM ruhig mal Nvidia den Vortritt lassen können. Ich meine, die Karte war zwar die erste mit HBM, aber gebracht hat es leistungstechnisch fast Null, der größte Vorteil ist der niedrigere Stromverbrauch gewesen. Skalieren tut die Fury jedenfalls nicht besonders gut relativ zur R9 290X.
 
Also sinnvoller als so ist sowas nicht machbar. Thahiti, Tonga und die Polaris10-Variante der RX470 haben exakt gleich viele Compute Units, an deren Aufteilung sich seit GCN1 nichts geändert hat.
Natürlich hat Tahiti ein 384Bit-SI und auf der 7970GHz und 280X 6GHz Speicher, während Tonga auf der 380X "nur" 5,7GHz hat (sollten aber 6Gbps-Chips sein) und Polaris10 auf der RX470 wohl auch 7-8GHz haben wird.

Aber sowas löässt sich ebenso wie der Chiptakt (1-1,1GHz sollte der gemeinsame Nenner sein, da liegen die meisten 280X und 380X) regeln, auch wenn bei Tonga und Polaris der Boost wesentlich komplizierter ist.

Es geht dann ja gerade darum, herauszufinden, welche taktunabhängigen Verbesserungen ggü. Tahiti und Tonga es gibt. Ist Polaris z.B. noch viel besser für DX12 als Tahiti oder kaum mehr als Tonga? Kann die Speicherkompression in hohen Auflösungen die fehlende Bandbreite wettmachen, bei Polaris noch besser als bei Tonga? Wie steht es um die Energieffizienz?.

Viel bessere Gegenüberstellungen unterschiedlicher Generation gab es AFAIR nie, dafür haben sich stets die techn. Daten zu sehr gändert.

EDIT: Ich vermisse den High-end Bereich garnicht. Alles ab 290X/390X und 980 war für mich immer preislich uninteressant, 290/390 und 970 eigtl. auch, erst in der Endphase kurz vorm Abverkauf wären sie ok gewesen, aber ich kaufe ungern bald veraltete Hardware neu. Ich empfinde es ehrlich gesagt als Sauerei von AMD und nochmehr von Nvidia, dass es in den letzten Jahren im für die Meisten interessanten Preisbereich zwischen 200€ und 250€ fast nur schlechte Karten gab. Seit Juniper waren AMDs Midrange Chips mir immer gerade einen Tick zu langsam, weil jeweils SI, Speichermenge oder Rechenleistung zu schnell zu wenig wurden. Es war immer die x850/x950-Karte, die nach ersten Preissenkungen in den interessanten Bereich kam (280 und 280X dann erst recht, schon die 285 und eine 285X hätten Preiskiller sein können, bei 380 und 380X kam es dann zu spät und hätte auch besser sein können).

Nvidias Midrange Chips GK106 und GM106 waren eine Frechheit für den Startpreis, die GTX 960 wurde ja zunächst nur als 2GB VRAM-Krüppel angeboten und wird auch bald durch das lahme SI und die mangelnde Rechenleistung Schrott sein. Von der komischen GTX 660 Ti reden wir lieber nicht, die GTX 670 (die ich jetzt habe) war nur gebraucht ok, dafür war dann die GTX 760 gerade so akzeptabel, aber eben auch nur, wenn man den Gebrauchtmarkt nicht nutzen wollte. GTX 680, 770 und höher und jetzt 980 höher waren Zeitlebens zu teuer.

Ich habe mich daher die letzten Jahre regelmäßig geärgert, wenn statt einer R9 285X 4GB oder Geforce 760 Ti bzw. 960 Ti immer dickere, teurere Boliden rauskamen. GTX 780/980 und 290X nicht teuer genug? Setzen wird noch eine 780/980 Ti bzw. Fury (X) drauf, am besten oben noch eine Dual-GPU Karte! Wer kauft sich bitte eine Graka für 800€ oder mehr? Dazu kommt noch, dass mir bei der letzten Generation Technologien fehlten, die schon seit Jahren hätten dabei sein müssen oder zumindest bei Refresh nachgereicht hätten werden müssen. Wir preisen die Karten für 4K und mehr an, aber HDMI2.0 oder DP1.3 sind nicht nötig. Wir bringen HDMI2.0 auf den GM104/110, aber HDCP2.2 braucht kein Mensch, einen HEVC-Decoder auch nicht. Den gibt es dafür auf der kleineren, leistungstechnisch uninteressanten Karte.

Das ist auch der Grund, warum die letzte Generation auf dem Gebrauchtmarkt nicht so toll dasteht, während man statt einer GTX 770 oder 760 auch gut eine gebrauchte 680/670, statt einer HD6950 auch eine gebrauchte HD5850/5870 für viel weniger Geld und mit trotzdem guter Leistung kaufen konnte. Und nicht nur den Gebrauchtmarkt betrifft das: Wer will noch eine R9 390(X) neu kaufen, wenn die RX480 sogar billiger ist, wer eine GTX 970, wenn bald die GTX 1060 erhältlich ist? War bei Geforce 700 vs. 900 auch so.
 
Zuletzt bearbeitet:
@Tigerfox

Wow, du bringst die interessantesten Fragen auf den Punkt :)
+1!

mfg,
markus
 
@ Sonne. Das ist wieder Typisch du :) machst immer alles so unnötig schwer.

In der Preisklasse sollte die Karte in 1080p getestet werden.
In World of Tanks, World of Warships, und sonnstig in der masse verbreiteten Dauerbrennern die Engine Technisch nicht das maß aller dinge sind.
 
Es geht dann ja gerade darum, herauszufinden, welche taktunabhängigen Verbesserungen ggü. Tahiti und Tonga es gibt. Ist Polaris z.B. noch viel besser für DX12 als Tahiti oder kaum mehr als Tonga? Kann die Speicherkompression in hohen Auflösungen die fehlende Bandbreite wettmachen, bei Polaris noch besser als bei Tonga? Wie steht es um die Energieffizienz?.

Nur beantwortest du das eben mit Taktgleichheit und gleichen ALUs nicht, wenn da andere Elemente der GPU die Ergebnisse verfälschen.
Was soll dir bspw. ein Benchmark sagen, wo einerseits Spiele mit viel Tesselation Powerbedarf getestet werden (Bspw. die gängigen Benchszenen beim aktuellen TR, Metro:LL Redux usw.) -> und Spiele mit viel Tesselation Power die Nase vorn haben und das völlig ohne die ALUs zu beleuchten. Oder Spiele mit viel Bandbreitenbedarf, wo Tahiti prinzipbedingt die Nase vorn hat -> dann gibts noch Spiele, wo die Kompression der Tonga und vor allem Polaris GPUs nicht richtig greift usw.
Am Ende stehen FPS Werte, normal sicher wieder avg. FPS Werte ohne dass diese ausgewertet werden, WARUM etwas so ist, wie es ist.

Ich kann dir heute das Fazit nennen, nämlich dass da entweder stehen wird, die GCN4 Änderungen haben was gebracht oder die GCN4 Änderungen haben nix gebracht. Nur genau diese Aussage wurde dann idR weder durch die Messungen bestätigt noch wiederlegt, weil einfach das, was getestet wurde gar nicht dafür taugt diese Aussagen zu bringen...

Bestes Beispiel für falsche Interpretationen sind VRAM Benchmarks... Schau sie dir selbst an. Da ist bestenfalls eine Hand voll Tests überhaupt brauchbar... Trotzdem findest du in ALLEN ein Fazit ob der VRAM was bringt oder nicht. Und bei den meisten Tests taugt die Messmethode nicht für diese Aussage. -> Fakt.

@ Sonne. Das ist wieder Typisch du :) machst immer alles so unnötig schwer.

Ganz im Gegenteil, ich versuche euch die Illusion zu nehmen, dass so ein simpler Vergleich für eine handfeste Pro/Kontra Übersicht taugt... Dafür ist eine tiefere Betrachtung nötig als ein paar Titel mit wenigen Sekunden langen avg. FPS Werten zu vergleichen. :wink:
Auf der anderen Seite interessiert es mich natürlich selbst... Nur habe ich eine Abneigung gegen Tests, die etwas versuchen zu ermitteln ohne dass die Testmethode überhaupt dafür geeignet ist.

Das ist wie ein Test von Autos, welche du über die Rennstrecke prügelst und im Vergleich zu anderen dieser Art antreten lassen willst und im Fazit denkt man sich dann ein Urteil über die Offroadfähigkeiten der Modelle anhand der gemessenen Werte zusammen. -> völliger Quatsch. Aber im GPU Bereich leider gang und gebe...
 
Einen Nachfolger vom ewigen Wiedergänger Pitcairn wird es wohl nicht geben, ich habe mich schon immer gefragt, wie sich die Kombination aus wenigen Shadern und rel. breitem SI lohnen kann. Nvidia spendiert ja schon seit längerem nur dem Highend-Chip ein 256Bit-SI, auch wenn man nach dem enttäuschenden GM106 etwas zurückrudert.

Wo rudern sie denn zurück? Die 1060 mit dem GP106 wird genau so eine Krücke.

@Artikel: AMD bestätigt den release von Vega mit HBM2 für 2017

Sorry, aber ein Journalist hätte erkannt was eine überspezifische Aussage bedeutet.
Die Gerüchte sprachen nämlich von einem vorgezogenen release von Vega OHNE HBM2, also mit GDDR5X.
 
@fdsonne: Moment, genau das was du schreibst, möchte ich ja rausfinden. Ist Polaris wirklich in der Überzahl der modernen Titel schneller als Tahiti (und Tonga)? Natürlich kann man da schlecht filtern, inwieweit dass an der Tessaltaion-Power liegt oder an anderen Verbesserungen, außer man testet gezielt mit einer Reihe tesselationlastiger Tests ggü. einigen nicht so tesselationlastigen. Aber so genau interessiert es dann Spieler auch nicht.
Kann die Speicherkompression immer oder wenigstens meist die fehlende Bandbreite kompensieren?

Bei den VRAM gebe ich dir recht, oft genug werden niedrige einstellige Unterschiede oder gar abwechselnd Vor- und Nachteile festgestellt und trotzdem der größere VRAM als Vorteil gesehen. Allenfalls in Auflösungen und Qualitätsstufen, die die Karte nicht mehr realistisch schafft, gibt es zweistellige Unterschiede.

Ich gehe da meist nach folgendem Kriterium: Lassen sich schon dann bedeutsame Unterschiede messen, wenn sie auch klein sind, wenn die Karte auf den Markt kommt, ist die Wahrscheinlichkeit groß, dass der kleinere VRAM bei der nächsten Spielegeneration zum Flaschenhals wird. Z.B. bei Geforce GTX960 und Radeon R9 285/380 2GB.
 
Ist das so wichtig? Wenn mir ne graka bei gleicher tdp 30% mehr fps ausspuckt ist es doch egal wie sie das gemacht haben? Aber rein ais neugier woe sehr verbessert wurde und eas wäre es nett wenn hwluxx das testen könnte.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh