AMDs GPU-Roadmap: Vega mit HBM2 – Navi mit neuer Speichertechnologie

Ja 85W bis 90W. Hatten wir ja bereits auf der CES gesehen: https://www.youtube.com/watch?v=oNA6fll2DDQ
Das war eine Polaris 11.

Wobei man ja noch bedenken sollte, das dies das Gesamtsystem war. Also mit CPU, Board, RAM, Peripherie und Netzteilverlusten. Ich schätze mal die reine GPU Verlust-Leistung auf gerade mal 40 bis max. 50 Watt TDP in diesem Szenario.
Ein passiv betriebenes Kühlsystem ist also locker möglich.

Sie bietet also in etwa GTX950-Leistung, müsste daher viel kleiner sein als 232mm².

Bei diesem Test war die Polaris gedeckelt. Gut möglich, das sie deutlich mehr FPS erzeugen könnte. Ich schätze mal, sie wird eher auf dem Niveau der GTX960 liegen.

Polaris 10 wird den Hawaii-Chip beerben bei deutlicher Effizienzsteigerung.
Die Frage der Möglichkeiten der neuen Fertigung bleibt dabei die große Unbekannte. Laut ersten Informationen soll die neue 14nm Fertigung die Transistoren so stark verbessern, das sie nur sehr wenig Leckströme erzeugen und deutlich kürzere Schaltzeiten ermöglichen. Wie das nun in der Architektur nutzbringend umgesetzt werden kann, beleibt natürlich offen. Aber ich kann mir schon vorstellen, dass man da sehr großzügig an der Taktschraube drehen kann, wenn man möchte. ;)

Auch GDDR5-Speicher wird verwendet und nicht wie von vielen hier geschrieben HBM1. Dadurch sind eben 6-8 GB Speicherausbau möglich. Ein Beschleuniger mit Hawaii-Leistung kommt immer noch sehr gut mit GDDR5 aus.
HBM1 auf der Fury sollte nur ein Test werden und auch die Leistungsaufnahme verringern.
Bedenkt man das Letztere, so erkennt man, das Polaris trotz der deutlichen Effizienzsteigerung immer noch GDDR5 verwendet.

Nun, HBM2 soll abermals die Effizienz des Speicher gegenüber HBM1 steigern können. Dann wäre eine kommende Vega abermals effektiver unterwegs.

Dazu kommt noch das gute Abschneiden der GCN-Architektur in DX12. Da wird es auch nochmals Verbesserungen schon in der Polaris-Serie geben.

Also Polaris wird schon ein Kracher, aber Vega wird eine Sensation. :d
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
also ich erwarte polaris 10 auf fury x Niveau bei unter 170w !

ja und vega wird es krachen lassen wie im las vegas !!!
 
@yb0b
das wäre dann schon 390X Niveau mit 130 Watt Verbrauch - und somit für Mittelklasse bzw. Einstieg Oberklasse schon richtig gut - kommt halt auch immer darauf an wo leistungsmässig die Nachfolger von 980 und 970 rauskommen

@huberei
natürlich ist ja alles spekulatius vom feinsten sozusagen :d

Also 390X Leistung mit 130W? Da wäre ich sofort interessiert, werde dieses Jahr auf jeden Fall aufrüsten, da meine GTX 760 nicht mehr die Stärkste ist. Ob es wieder NV oder wieder eine ATi wird muss sich noch entscheiden.
 
Finde ich alles recht und gut was demnächst an Grafikkarten kommt. Was ich aber hoffe ist, das AMD und Nvidia vor lauter GPU und RAM Entwicklung nicht die anderen Bauteile einer GPU vergessen. Hoffentlich haben sie mit ihren Zulieferern qualitativ bessere Spulen ausgehandelt.
Wäre wirklich schade wenn man wieder bei den neuen Generationen Lotto spielen muss nur um eine annehmbare, nicht zirpende/fiepende, Karte zu erwischen.
 
Und 2016 dümpeln wir immernoch auf dem Leistungsniveau von 2012 :wall:

Nur effizienter :fresse:

Es wird 2019 / 2020 bis eine Single GPU kommt die 4k (min 60fps, all maxed out)
packt, vielleicht :(

Alle haben sich auf HBM2 gefreut. Da wird einem noch GDDR5X, HBM (1. Gen.)
und 4GB VRAM reingedrückt. So kann man das ganze hinauszögern und extra
Geld verdienen.
 
Also 390X Leistung mit 130W? Da wäre ich sofort interessiert, werde dieses Jahr auf jeden Fall aufrüsten, da meine GTX 760 nicht mehr die Stärkste ist. Ob es wieder NV oder wieder eine ATi wird muss sich noch entscheiden.
Das haut mich jetzt nicht vom Hocker. Eine 970 kommt da schon recht nah dran!

Ich hoffe auf 980 Ti Leistungsniveau bei 130W. Das muss drin liegen nach so langer Zeit.
 
Zuletzt bearbeitet von einem Moderator:
PC Perspective hat ein Interview mit Raja Kosuri geführt. Darin wird Multi-GPU für die Zukunft sogar noch gestärkt, gerade wegen DirectX 12, Vulkan und VR:


Außerdem dürfte spätestens mit dem Interview klar sein, dass Polaris nicht mit HBM2 kommen wird. Aber ich denke das hatte sich im Verlaufe des gestrigen Tages so schon herauskristallisiert.
 
Zuletzt bearbeitet:
Das haut mich jetzt nicht vom Hocker. Eine 970 kommt da schon recht nah dran!

Ich hoffe auf 980 Ti Leistungsniveau bei 130W. Das muss drin liegen nach so langer Zeit.

Ich glaube selbst 390X wird mit 130W nicht drin sein denke ich, ich erwarte da nicht unter 200W, auch wenn mir das andere natürlich lieber.

Gesendet von meinem K013 mit der Hardwareluxx App
 
Amd kann auch gddr5x verwenden, das ist völlig in Ordnung. Leistung bei einer nano/ 980 übertaktet, mit mehr als 4gb vram und etwas sparsamer als aktuelle Karten wäre mein Kaufgrund für die neue Generation. Mehr Leistung kann man dann mit übertaktung erreichen, falls notwendig. So bis 350€ erreicht sind (für das Gesamtpaket) warte ich auf jeden Fall ab.
 
PC Perspective hat ein Interview mit Raja Kosuri geführt. Darin wird Multi-GPU für die Zukunft sogar noch gestärkt, gerade wegen DirectX 12, Vulkan und VR:

Naja, da bezieht man sich mehr auf die rein technischen Möglichkeiten von DX12/Vulkan. Man hofft natürlich das sich durch VR und den neuen APIs ein lukrativer Markt für Multi-GPU entwickeln wird. Schließlich hört sich Multi-GPU für VR gerade zu wie dafür geschaffen an. Eine GPU für das rechte, eine zweite GPU für das linke Auge. Aber zwischen dem technisch Machbaren und der konkreten Umsetzung steht der Entwickler, der auch die nötigen Anreize für eine Multi-GPU Implementierung haben muss. Wenn der Markt in Zukunft nicht die breite Masse anspricht, wird es den Aufwand für die Entwicklung auch nicht rechtfertigen können. VR benötigt enorme Leistung, dementsprechend teuer die Hardware. Je teurer die Hardware, desto kleiner auch der Markt und desto uninteressanter wird auch Multi-GPU für viele Entwicklerstudios. Auch der Aufwand der mit den Low-Level APIs einhergeht sollte man nicht unterschätzen. Unterschiedliche GPU-Architekturen lassen den Aufwand hier eher ansteigen, als ihn zu reduzieren. Das Resultat könnten halbgare Umsetzungen sein, die stolz mit VR-Unterstützung werben, ihr aber nicht gerecht werden können.
 
Schade das Polaris noch kein HBM2 hat. Damit hätte man mit Nvidias Pascal sehr schön konkurieren können.
 
ja ist schade - das HBM2 halt doch noch nicht mit Polaris kommt - aber solange auch Nvidia nicht direkt mit HBM2 und Pascal starten kann ( auch da kommt erstmal "nur" GDDR5 und später GDDR5X) sehe ich da nichts, wovor Amd sich verstecken müsste...
 
Versteh jetzt die Verwunderung um Vega nicht. Polaris wird der Nachfolger der Pitcairn/Tahiti-Konstellation im midrange und Performance-Segment, Vega dann ein großer Chip auf Interposer mit HBM2 als Hawaii/Fiji-Nachfolger. nVidia fährt das doch ähnlich, GM204 und GM206 und später der GM200 für die großen Geräte. Wer gern Highend kauft, darf halt öfter ran :)
 
...Finde ich alles recht und gut was demnächst an Grafikkarten kommt. Was ich aber hoffe ist, das AMD und Nvidia vor lauter GPU und RAM Entwicklung nicht die anderen Bauteile einer GPU vergessen. Hoffentlich haben sie mit ihren Zulieferern qualitativ bessere Spulen ausgehandelt....

Du kannst, wie üblich bei HighTech, selbstverständlich davon ausgehen, dass sämtliche Teile, deren Qualität man nicht direkt in einer einfachen Zahl aus einem Benchmark in den Tests ausdrücken kann, von der minderwertigsten Qualität sein werden, die auf dem Markt zu finden ist.
 
Du kannst, wie üblich bei HighTech, selbstverständlich davon ausgehen, dass sämtliche Teile, deren Qualität man nicht direkt in einer einfachen Zahl aus einem Benchmark in den Tests ausdrücken kann, von der minderwertigsten Qualität sein werden, die auf dem Markt zu finden ist.

Naja wenn in Testberichten oder Foren krass von Spulenfiepen berichtet wird ist das nicht gut für die Verkäufe und das Image.

Wenn man hochwertige Spulen verwendet kann man damit genauso werben wie bei Netzteilen mit den "100% japanische Kondensatoren".
Asus wirbt bei seinen Strixx Karten mit (angeblich) frei von Spulenfiepen/knistern. AMD und Nvidia können das genauso bewerben um sich besser zu stellen.

Allerdings erwarte ich in Zukunft keine schnelle Besserung beim Thema Spulenfiepen/-knistern. Die Stromsparmechanismen sind mittlerweile so aggressiv und ändern die Spannung so schnell und extrem innerhalb von Sekundenbruchteilen.
 
Zuletzt bearbeitet:
Ja, nicht nur das. Wäre halt auch schön, wenn es mal wieder normal würde, dass z.B. die BGA-Lötstellen sich nicht nach etwa drei Jahren auflösen usw.
 
Spulenfiepen hat nicht unbedingt etwas mit schlechter Bauteilqualität zu tun. Gekapselte Spulen sind jedenfalls auch kein Allheilmittel. Die Realität ist, das man es im Einzelfall wohl nie komplett wird ausschließen können, selbst mit den besten Spulen und durchdachtesten Schaltkreisen nicht.
 
Ja 85W bis 90W. Hatten wir ja bereits auf der CES gesehen: https://www.youtube.com/watch?v=oNA6fll2DDQ
Das war eine Polaris 11. Sie bietet also in etwa GTX950-Leistung, müsste daher viel kleiner sein als 232mm².

Polaris 10 sollte also 232mm² groß sein. Die Packdichte von Samsungs 14nm LPP ist gegenüber TSMCs 28nm Prozess ca doppelt so hoch.
Das heißt, dass Polaris 10 fast 80% so viele Transistoren wie eine Fury X hat. Mit ein paar Verbesserungen an der Architektur(wurde ja bereits erwähnt) sollte man also 80% so viel Leistung pro Takt hinbekommen. Die Taktraten sollen laut Samsung bei 75% liegen.
0.8*0.75=0.6
Also 60% der Leistung einer Fury X bei ca 140 W. :drool:

Und das alles unter der Annahme, dass Polaris nur 2.8% mehr Leistung pro Takt pro Transistor liefert, was sehr wahrscheinlich falsch ist. Es können auch gut 70% einer Fury X werden.
Auch beim Verbrauch war ich sehr, sehr pessimistisch und habe den niedrigeren Takt ignoriert und die Tatsache, dass die Fury X einen Wasserkühler hat. Dafür hatte dann auch ignoriert, dass der Speicher wohl genauso viel wie bei der Fury X schlucken wird und nicht 60% weniger.
Hier nochmal etwas genauer:
255W(FuryX GPU = Fury X Karte - Wakü - HBM)*0.6(Effizienz laut Samsung)*0.6(Flächen- und Takt-quotient) + 1W(80mm Lüfter + Steuerung) + 15W(HBM + Rest elektronik) = 107.8 W
Weil Samsung schamlos übertreibt: ca. 120W bei HBM1
GDDR5X braucht 20 W bei 8GB -> 125W bei GDDR5X

Wie AMDs Radeon R400 Serie wahrscheinlich aussieht | 3DCenter.org

Bei 3D-Center ist man zu den selben Schlüssen gelangt
 
Ich bezweifle das Vega 11 der große Vega wird und Polaris 11 die kleinere Version ist.
Ebenso bezweifle ich das AMD ein so krasses Monster bringt. Ich rechne und hoffe auf Vega 8GB HBM2 mit 20-30 % Mehrleistung (gegenüber Fury X) welche über Architektonische Verbesserungen und durch höheren Takt gebracht werden, bei gleicher Shaderzahl wie Fury X

Ein 6144 Shadermonster, im ersten "14nm Jahr" verbaut doch die nächsten 2-3 Jahre in denn man wieder bei 14nm herum hängen wird!
Auch der GP100 Monster Chip von Nvidia wird nur für HPC kommen (wo AMD aktuell nicht ausreichend Boden hat um dort was lohnendes zu bringen), der GP102 (1080Ti Chip?) wird deutlich kleiner.

Ich bezweifle dass es überhaupt ein Vega 11 geben wird.

Wenn es doch so kommen sollte das AMD so ein Monster bringt, gönne ich mir diese aber natürlich gerne! :d
50% auf Fury X wird für 4K ausreichend sein!
 
Seit G80 hat man kontinuierlich Marktanteile verloren. AMD hat aktuelle ein super Ausgangslage. Wäre dumm wenn man die Vorteile aktuell nicht nutzt und mal wieder einen richtigen Kracher herrausbringt.
 
Ebenso bezweifle ich das AMD ein so krasses Monster bringt.

Ein 6144 Shadermonster, im ersten "14nm Jahr" verbaut doch die nächsten 2-3 Jahre in denn man wieder bei 14nm herum hängen wird!

Hast du überlesen das in dem Link steht das der Große Monsterchip erst 2017 kommt und nicht dieses Jahr ?
Dieses jahr kommen erstmal kleinere 14nm Chips die ca den Speed einer R9 390X haben werden.
 
Hast du überlesen das in dem Link steht das der Große Monsterchip erst 2017 kommt und nicht dieses Jahr ?
Dieses jahr kommen erstmal kleinere 14nm Chips die ca den Speed einer R9 390X haben werden.

Ich könnte mir ja so eine "Zwischenschritt"-Geschichte wie damals bei der HD 3870 gut vorstellen. Leistung um die spekulierte 390x mit 8GB Ram, ziemlich leise, ziemlich stromsparend. Denke, dass Fury schon noch herhalten muss bis zum Ende des Jahres.
 
Hast du überlesen das in dem Link steht das der Große Monsterchip erst 2017 kommt und nicht dieses Jahr ?
Dieses jahr kommen erstmal kleinere 14nm Chips die ca den Speed einer R9 390X haben werden.

Aber ich kann mir nicht vorstellen das der dann schon Anfang bis Mitte 2017 kommt...
 
AMD macht dieses Jahr auch den wichtigen Schritt mit stromsparenden Chips.
Selbst wenn die Leistung schon besser war, viele kaufen doch eher stromsparende Konkurrenden auch wenn Sie Leistung brauchen. Mit Polaris 10/11 bedienen Sie die Teil.

Gesendet von meinem HTC One mit Tapatalk
 
Zuletzt bearbeitet:
AMD hat aktuelle ein super Ausgangslage.

Findest Du? Bis auf Fiji nur alte Chips die leicht überarbeitet wurden.

Aber ich beschwere mich nicht, nutze aktuell selbst eine R9 390 und bin zufrieden.
 
Findest Du? Bis auf Fiji nur alte Chips die leicht überarbeitet wurden.

Aber ich beschwere mich nicht, nutze aktuell selbst eine R9 390 und bin zufrieden.

Ich meine hier eher, das alle aktuellen engines auf gcn optimieren. Die AMD 390 liegt in diesen Titeln zwischen gtx980 und 980ti. Oder sogar mal vor 980ti. In den wichtigen dx12 Features ist man führend, da eben in den Konsolen. Man steckt viel Energie in dx12. Fiji basiert auf gcn1.2 und kam bereits mit Tonga. Man hatte viel Zeit entsprechend an Polaris zu feilen. Nvidia wird mit Pascal sich an gcn annähern. Zudem gehen die Gerüchte um, das Pascal eher kaum architekturanderungen bringt. Ich bin gespannt ob AS überhaupt funktioniert.

Es klingt zwar komisch aber Nvidia ist unter zugzwang. Mit jedem weiteren dx12 Titel wird das Defizit von Maxwell immer ersichtlicher und gerade im wichtigsten Preisbereich hat man nur die gtx970 und gtx980 mit zudem nur 3,5 und 4gb vram.

Der gp100 kommt nicht ohne Grund nur im hpc Markt. Der Chip sieht vermutlich kein Land und wäre ohnehin viel zu teuer als gamerchip. Zudem wird der auch viel entwicklunzsressourcen gekostet haben, samt hbm wo AMD bekanntlich deutlich weiter ist.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh