AMD soll Polaris-Architektur Ende Mai offiziell vorstellen

AMD Polaris 10 und 11: GDDR5 und niedrige TDP

Polaris 10 mit nur 2048 SPs (statt 2304) und dennoch 150 W und Polaris 11 mit nur lächerlichen 896 SPs (statt 1280) und 50W

Und bei Polaris 10 wäre das ne Effizienzsteigerung von 1,8X gegen R9 390 und bei Polaris 11 von 3,6x gegen R9 270X


Die zahlen machen keinen Sinn sonst hätte AMD doch groß geworben bis zu 3,5x Effizienz und nicht 2,5x!
Die SPs stimmen vlt. für die Notebooks oder Teildeaktivierten pro Chips, aber die TDP Angaben hauen überhaupt nicht hin!
Die werte sidn auch ganz andere als bisher immer so raus kamen, und es gibt sogar nen Testeintrag eines Polaris 10 Chips mit 2304 SPs...

Im Schnitt kamen bei den massenhaften Gerüchten meist immer folgendes:
Polaris 10 - 2304 SPs knapp über R9 390X - um die 135/140W
Polaris 11 - 1280 SPs ungefähr R9 380 - um die 60 W also ohne Power connector

Und diese Zahlen halte ich für absolut realistisch.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
AMD Polaris 10 und 11: GDDR5 und niedrige TDP

Polaris 10 mit nur 2048 SPs (statt 2304) und dennoch 150 W und Polaris 11 mit nur lächerlichen 896 SPs (statt 1280) und 50W

Und bei Polaris 10 wäre das ne Effizienzsteigerung von 1,8X gegen R9 390 und bei Polaris 11 von 3,6x gegen R9 270X


Die zahlen machen keinen Sinn sonst hätte AMD doch groß geworben bis zu 3,5x Effizienz und nicht 2,5x!
Die SPs stimmen vlt. für die Notebooks oder Teildeaktivierten pro Chips, aber die TDP Angaben hauen überhaupt nicht hin!
Die werte sidn auch ganz andere als bisher immer so raus kamen, und es gibt sogar nen Testeintrag eines Polaris 10 Chips mit 2304 SPs...

Im Schnitt kamen bei den massenhaften Gerüchten meist immer folgendes:
Polaris 10 - 2304 SPs knapp über R9 390X - um die 135/140W
Polaris 11 - 1280 SPs ungefähr R9 380 - um die 60 W also ohne Power connector

Und diese Zahlen halte ich für absolut realistisch.

Der Polaris 10 kann ja ihn 4 Ausbaustufen kommen:

- 2560 Shader (XT)
- 2304 Shader (Kastrat A) - (Pro, Notebook ???)
- 2048 Shader (Kastrat B) - (Pro, Notebook ???)
- 1792 Shader (Kastrat C) - (LE, Notebook ???)

Gleiches gilt für den Polaris 11:

- 1280 Shader (XT)
- 1148 Shader (Kastrat A) - (Pro, Notebook???)
- 1024 Shader (Kastrat B) - (Pro, Notebook???)
- 896 Shader (Kastrat C) - (LE, Notebook???)

Die spekulierten TDPs von dem Link stimmen 100% nicht.

Gehe davon aus das Polaris 10 irgendwo zwischen 100-140 Watt liegt.
Gehe davon aus das Polaris 11 irgendwo zwischen 50-70 Watt liegt.
 
Zuletzt bearbeitet:
Im Schnitt kamen bei den massenhaften Gerüchten meist immer folgendes:
Polaris 10 - 2304 SPs knapp über R9 390X - um die 135/140W
Polaris 11 - 1280 SPs ungefähr R9 380 - um die 60 W also ohne Power connector

Und diese Zahlen halte ich für absolut realistisch.

Die Zahlen sind aber eben auch nicht konsistent untereinander...
1280 zu 2304 macht fast eine Verdopplung. 60W zu 135-140W ist mehr als eine Verdopplung.
Und 380 non X zu 390X wären grob 50% +- ein paar Prozent.

Wohin soll der Spaß verpuffen? Und wenn da "Leistung" von der kleinen auf die große verpufft, warum sollte die Leistungsaufnahme deutlich überproportional ansteigen?

Kurzum, das ist nicht konsistent.

Schau dir die Vergangenheit an, auch bei AMD gilt recht stimmig. Doppelte GPU = fast doppelte Performance = fast doppelte Leistungsaufnahme. So gesehen bspw. bei PitCairn zu Hawaii oder Tonga zu Fiji. (Wobei letzteres etwas pro Fiji aufgeht, auch aufgrund des HBM Speichers)
Für Polaris wird also sicher eine ähnliche Skalierung zu sehen sein. Das heist, die kleine Polaris mit 1280 (angenommen) ALUs und die große Polaris mit 2304 (angenommen) ALUs trennen je nach Taktrate etwas unterhalb Faktor 2. Die Leistungsaufnahme wird sich ähnlich verhalten.
Also stimmt entweder die Leistungseinschätzung von der 10er zur 390X nicht oder von der 11er zur 380 non X nicht. Eins von beiden ;) Oder gar beides...
 
Nuja OEMs dürften von Polaris11 hellauf begeistert sein, beispielsweise wird Apple wieder auf GPUs von ATI setzen.

Die großen Notebook Hesteller werden ebenfalls diese GPUs in ihren Notebooks verbauen wollen, NV wird erst in 2017 etwas neues dafür zu bieten haben ....

Es ist ein logischer und strategisch navollziebarer Weg bei FinFET am Anfang mit kleineren GPUs den Markt zu bedienen, die Yield würde sonst zu sehr darunter leiden. Alles in allem ein Wegweiser für eine gute Sache, die ihre Krönung in Vega finden wird.
 
Zuletzt bearbeitet:
Die Zahlen sind aber eben auch nicht konsistent untereinander...
1280 zu 2304 macht fast eine Verdopplung. 60W zu 135-140W ist mehr als eine Verdopplung.
Und 380 non X zu 390X wären grob 50% +- ein paar Prozent.

Wohin soll der Spaß verpuffen? Und wenn da "Leistung" von der kleinen auf die große verpufft, warum sollte die Leistungsaufnahme deutlich überproportional ansteigen?

Kurzum, das ist nicht konsistent.

Evtl. weil 256 Bit SI mit nur 6000-7000 MHz macht max. 224 GB/s das wirkt sich beim 2304 Shaderchip der mehr Rohleistung hat naklar deutlicher aus als bei der kleinen Version ?
evtl. dann noch 4gb Vram beim P11 die weniger Saft schlucken als die 8 GB ?

Das die 150W fürn 2048 Shader Chip stimmen "will" ich ich auch nicht glauben wenn man sieht das die GTX 1080 mit wesentlich größerem Chip, hohem Takt und GDDR 5 X grade mal 30 W bzw. 20% mehr schluckt bei ca. Doppelter Rohleistung.
 
Um auf 224GB/s bei einem 256Bit Interface zu kommen bräuchte man 1750MHz für GDDR5 RAM. Klingt realistisch und ist etwas weniger als bei der GTX 1070.

2048 Shader und 256Bit GDDR5 RAM mit 1750MHz klingt irgendwie nach etwas das man bei einer R9-285X erwartet hätte.
Naja wenn jetzt dank kleinerer Strukturen noch mehr Takt und geringer Verbrauch machbar ist käme man leistungsmäßig in einigen Anwendungsfällen schon in die Regionen einer R9-390 mit deutlich geringerem Verbrauch.

Seit GCN 3 ist die Speicherbandbreite dank Kompression ja nicht mehr ganz so kritisch. Was es so neues bei GCN 4 geben soll weiss ich noch nicht.

Sind halt alles nur Spekulationen aber zum richtigen Preis wird jede Karte ihre Käufer finden.
 
Kommt auf die Sichtweise drauf an. Mich hätte bei Nvidia eher eine 1000euro Premium GPU enttäuscht welche nach 2-3 jahren die Leistung einer AMD GPU hat welche 1/3 gekostet hat. Oder HW Angaben welche falsch sind. Das einzige was wohl Premium ist, ist die Marketingabteilung.

Wenn man bei Intel oder AMD highend kauft, dann stimmt zumindest die Langlebigkeit.
 
Das wären im Vergleich zu Tonga die gleiche Zahl Shader, 30% mehr Takt bei 45%weniger TDP, was bei 390er Niveau 35% mehr Leistung ergäbe. Diese Zahlen ergeben für sich genommen durchaus Sinn, aber die Packdichte wäre bei ~230mm² für P10 verhältnismäßig gering.
Tonga hat mit 384 Bit SI in 28nm etwa 330mm². Damit hätte die kleinere Fertigung gerade mal eine 30% höhere Zahl Shader pro Fläche gebracht und das trotz kleinerem SI.

Ich vermute immer noch, dass die schon langer spekulierten 2560 Shader eher richtig sind. Das wäre dann eine Verbesserung der Packdichte um 80% durch die neue Fertigung.

Gesendet von meinem LG-V500 mit Tapatalk
 
Kommt auf die Sichtweise drauf an. Mich hätte bei Nvidia eher eine 1000euro Premium GPU enttäuscht welche nach 2-3 jahren die Leistung einer AMD GPU hat welche 1/3 gekostet hat. Oder HW Angaben welche falsch sind. Das einzige was wohl Premium ist, ist die Marketingabteilung.

Wenn man bei Intel oder AMD highend kauft, dann stimmt zumindest die Langlebigkeit.

Kannst du mir bitte erklären wo der Zusammenhang zwischen "Langlebigkeit" und den 4 GB VRAM der Radeon Pro Duo ist, die bereits jetzt bei Release nicht ausreichen? Für 1500 € sollte diese als Premium-GPU gelten.

Einzig gut haben es die Erstkäufer einer 290/X und 7970, gerade Letztere ist wirklich langlebig. Jedoch wird sich das bald ändern, genauso wie bei zahllosen 970/980ern. Die Mittelklasse hat künftig bereits 6 GB...
 
die hersteller wissen mittlerweile das sie Geld verdienen indem sie Produkte auf längere Zeit anbieten, 50% Sprünge wirds nicht mehr geben.
 
Ist auch kein Problem. Einfach eine Gen. überspringen :d Oder warten. Der Scheiß wird von alleine billiger :p
Wir sind nicht auf der Flucht. Wer es sofort haben will, soll zahlen. In 3-6 Monaten, oder gar in 12, sieht die
Welt ganz anders aus.
 
Ist auch kein Problem. Einfach eine Gen. überspringen :d Oder warten. Der Scheiß wird von alleine billiger :p
Wir sind nicht auf der Flucht. Wer es sofort haben will, soll zahlen. In 3-6 Monaten, oder gar in 12, sieht die
Welt ganz anders aus.

Naya... das ist heute auch nicht mehr so wirklich so... hat sich seit 2013wirklich so viel getan?
Habe ende 2012 ne Hd7970Ghz (1150mhz stock) für ~240€ neu gekauft....
Wirklich viel hat sich da bis heute eig. nicht getan.
Klar, man muss ja nicht am releasetag kaufen... aber so nach 3-6 monaten sollten sich die preise eingependelt haben und in zukunft nicht mehr drastisch weiter fallen (zumindest war es so in der vergangenheit)
 
Kannst du mir bitte erklären wo der Zusammenhang zwischen "Langlebigkeit" und den 4 GB VRAM der Radeon Pro Duo ist, die bereits jetzt bei Release nicht ausreichen? Für 1500 € sollte diese als Premium-GPU gelten.

Einzig gut haben es die Erstkäufer einer 290/X und 7970, gerade Letztere ist wirklich langlebig. Jedoch wird sich das bald ändern, genauso wie bei zahllosen 970/980ern. Die Mittelklasse hat künftig bereits 6 GB...

4GB bei der Fury finde ich auch unglücklich. Ist aber eben auch technisch durch HBM1 bedingt. Die Fury war ohnehin nur ein erster Gehversuch für HBM. Immherin bietet sie dafür aber auch eine neue Technologie im Gegensatz zu den Titan-Karten. Und solange 4GB noch reichen kann sie sich auch fast an die GTX1080 in DX12 herankämpfen, zum halben Preis wohlgemerkt.
 
*aufgeräumt*
 
Die Fury war ohnehin nur ein erster Gehversuch für HBM. Immherin bietet sie dafür aber auch eine neue Technologie im Gegensatz zu den Titan-Karten. Und solange 4GB noch reichen kann sie sich auch fast an die GTX1080 in DX12 herankämpfen, zum halben Preis wohlgemerkt.

Das Herankämpfen scheint aber nicht in jedem DX12 Spiel zu klappen:

...Based on an advanced Crystal Dynamics Engine, the game takes advantage of DirectX 11 and DirectX 12. We are using DirectX 12 for our testing.

 
Wurde schon paar seiten vorher gepostet. DDR3 ebenfalls falsch erkannt, ansonsten plausibel.

2304SPs bei 1,27GHz wäre knapp über R9 390X
 
Wurde schon paar seiten vorher gepostet. DDR3 ebenfalls falsch erkannt, ansonsten plausibel.

2304SPs bei 1,27GHz wäre knapp über R9 390X

DDR3 und DDR5 sind ja eigentlich das selbe. Könnte also auch einfach eine Namenskonvention sein.

- - - Updated - - -

1266*2304/(1050*2816)>0.986
Also knapp drunter, es sei denn Polaris ist 2% effizienter.
Wird mit dem halbierten SI und dem geringeren Speichertakt aber schwierig.
 
Tomb Raider ist kein natives DX12 Game.
 
Zuletzt bearbeitet:
bitte den bilderquote entfernen!
 
Das wird wahrscheinlich so sein, das die neuen AMD Karten nicht ganz an die Fury X rankommen aber dafür weniger verbrauchen und etwas weniger kosten, dafür stehen 2 chinesische weibchen neben der Karte. Vega 11 mit 6000 SP wirds richten.

*spekulieren erlaubt*
 
Zuletzt bearbeitet:
Da liegt doch noch die Speku von Vega 10 im Raum ?
Irgendwas mit 4000Shader
 
Bin gespannt wie sich die Polaris Karten ggü. der 1070 schlagen werden. Wenn es ein Kopf an Kopf Rennen ist, werde ich mir aufgrund FreeSync eine Polaris kaufen, ansonsten greife ich wieder zu Nvidia.
 
Zuletzt bearbeitet:
Nun ja für mich ist der Weg soweit vorgegeben, habe einen FreeSync 27" 1440p Monitor von Iiyama für echt lau bekommen (0€) und bin sehr zufrieden mit AMD (alles funktioniert wie es soll), wenn Polaris 10 ein wenig über die 390x kommt, einen moderaten Preis bietet und eventuell die OC Möglichkeiten auch noch gut sind steht meinen persönlichen P/L Verhältnis das ich als gut bis sehr gut bezeichnen würde nichts im Wege....

Überlege nur ob ich mir wieder ein CF System zusammenstelle oder nicht, wir werden sehen wohin die Reise gehen wird.....
 
Hab ne 290x auf 1150 /1350 unter Wasser von daher ist Polaris für mich nur super interessant in Hinblick Architektur und leistungsausblick Vega wegen +-10% rüste ich nicht um obwohl es mir basteltechnisch schon in Händen juckt .
 
Da liegt doch noch die Speku von Vega 10 im Raum ?
Irgendwas mit 4000Shader

Also der Vaga 10 (hier ist die kleinere Zahl angeblich die kleinere Version umgedreht wie bei Polaris) soll 4096 SPs und 8GB HBM2 haben und halt entweder Anfang 2017 oder wie jetzt öfters behauptet wurde schon im Oktober kommen.
Oktober zusammen mit Zen wäre ein massiver Schlag seitens AMD, könnte man Marketingtechnisch bestimmt auch gut verkaufen wie z.B. Aktionen kauft beide High End Produkte zusammen und erhaltet das Spiel usw.

Ob der kleinere Vega mit 4096SPs im Oktober kommt weiß man mMn. bei Polaris Launch. Wenn der große Polaris den 480(X) Platz bekommt kann man sicher sein das noch dieses Jahr der 490(X) Platz von Vega besetzt wird!

Für Q2 oder Q3 nächsten Jahres soll angeblich dann noch ein riesengroßer Vega 11(?) mit 6144SPs und bestimmt 16GB HBM2 kommen - vermutlich als Gegenspieler gegen den GP102
Wenn man jetzt mal von 1,25GHz ausgeht läge das Teil dann ca 80% über Fury X! Aber Nvidia wird da sicherlich mit dem GP102 auf ähnliche Performance kommen.
 
Also der Vaga 10 (hier ist die kleinere Zahl angeblich die kleinere Version umgedreht wie bei Polaris) soll 4096 SPs und 8GB HBM2 haben und halt entweder Anfang 2017 oder wie jetzt öfters behauptet wurde schon im Oktober kommen.
Oktober zusammen mit Zen wäre ein massiver Schlag seitens AMD, könnte man Marketingtechnisch bestimmt auch gut verkaufen wie z.B. Aktionen kauft beide High End Produkte zusammen und erhaltet das Spiel usw.

Wenn man ein Top-Produkt mit hoher Nachfrage hat macht man es wie Nvidia. Man knallt den Preis hoch und folgt einer Skimming-Strategie, bei der man so viel abschöpft wie möglich. AMD ist in der ungünstigen Position, das sie tendenziell eine Penetration-Strategie fahren müssen.
Man macht die Beigaben wie Spiele deswegen, dass man den Preis nicht reduzieren muss, sondern bundled mit etwas um einen materiellen Rabatt zu geben.

Wir hoffen mal, dass AMD/ATI Produkte haben, die man nicht prinzipiell von Anfang an schon subventionieren muss. Die sollen jetzt endlich mal mit Infos rausrücken.
Bin echt gespannt, ob AMD/ATI einfach alles unter der 1070 bald abgrasen wird, oder es sogar noch Luft nach oben gäbe. Auch sicherlich interessant wann und ob Pascal Mittelklasse kommt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh