AMD bekräftigt: Polaris-Grafikkarten mit GDDR5 und HBM geplant

VincentVinyl

Neuling
Thread Starter
Mitglied seit
10.10.2015
Beiträge
904
<p><img src="/images/stories/logos-2015/amd-radeon-2013.jpg" alt="amd radeon 2013" style="margin: 10px; float: left;" />Wir haben bereits mehrfach über <a href="http://www.amd.com/de-de" target="_blank">AMDs</a> neue GPU-Architektur <a href="index.php/news/hardware/grafikkarten/37737-amd-demonstriert-polaris-system.html">Polaris</a> <a href="index.php/artikel/hardware/grafikkarten/37558-amd-verraet-erste-details-zur-polaris-architektur-der-neuen-gpus-2.html">berichtet</a>. Die ersten Grafikkarten auf Basis der Chips sollen Mitte 2016 auf den Markt kommen. AMD wirbt vor allem mit der Energieeffizienz der kommenden Modelle. Was bisher nun allerdings zu der Speicherausstattung der Karten vage gehalten wurde, hat AMD jetzt offiziell nochmals bekräftigt: Je nach Preissegment werden die...<br /><br /><a href="/index.php/news/hardware/grafikkarten/37835-amd-bestaetigt-polaris-grafikkarten-mit-gddr5-und-hbm-geplant.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja also das sowohl Grafikkarten mit HBM als auch GDDR5 kommen werden, ist für mich jetzt so überraschend, wie dass morgen Montag ist...

Viel interessanter wäre wie viele Chips nun mit welchem Speicher kommen.
Anfangs hieß es 3 Chips, der High End Chip bekommt logischerweise 8GB HBM2 und der kleine Chip hat GDDR5(X) beim mittleren das Fragezeichen. (Ich tippe auf 4GB HBM1/2)
Doch jetzt kommen mehr und mehr Berichte auf das es erstmal 2 Chips werden also vlt. Mainstream und High End?
AMD soll mal mehr Infos raus lassen...
 
Ich fände es auch sehr interessant, ob amd die Nomenklatur bzw. Aufstellung so beibehält. Dann könnte man zumindest "präziser vermuten" welche karte auf welche Speicher setzt. :d

Diskussionsanreiz: Sollte man der Demo-Polaris mehr unterstellen, weil sie evtl. auf gddr5 setzte statt hbm?
 
Also das find ich eigentlich vollkommen in Ordnung. GDDR5 bietet genug Leistung und vor allem, wenn man eine schwächere GPU kauft, welche ja im Preis dann günstiger ausfallen soll, dann braucht man keinen HBM2 Speicher. Allerdings würde ich dann schon gerne den GDDR5X Speicher sehen als den "normalen".

PS: Meine GTX 660 Ti muss dieses Jahr unbedingt raus aus dem Kasten!
 
Zuletzt bearbeitet:
Freue mich schon riesig auf die nächste Generation, so allmählich wird meine HD7950 doch ein wenig langsam und müsste ersetzt werden ^^
 
Ich fände es auch sehr interessant, ob amd die Nomenklatur bzw. Aufstellung so beibehält. Dann könnte man zumindest "präziser vermuten" welche karte auf welche Speicher setzt. :d

Diskussionsanreiz: Sollte man der Demo-Polaris mehr unterstellen, weil sie evtl. auf gddr5 setzte statt hbm?

GDDR5 verbraucht sogar mehr Strom und hat weniger Leistung als HBM, sozusagen ist die Demo etwas "mehr" besonders^^

Ich hoffe das AMD wieder das ursprüngliche Namensschema der 200er Generation nimmt. 470(X) Mainstream, 480(X) hohe Leistung und 490(X) High End, stärkste single GPU.

@Zakuma so allmählich? Ich warte seit Hawaii auf nen würdigen Nachfolger! :d Fury X sollte es dann eig. werden, aber die mir zu niedrigen 4GB Ram, der VRAM-defekt meiner Fury X die miese Verfügbarkeit haben mich dann wieder "verscheucht".

Da die Nano jetzt aber so günstig ist, wird es wahrscheinlich eine als Übergangskarte bis zur 490X (Greenland?)
 
Zuletzt bearbeitet:
Heißt GDDR5 wirklich nur GDDR5 oder wird auch die neue "X-Variante" eingesetzt?
Gibt es dazu Informationen?
 
War das nicht so dass die Hersteller kurzfristig auf GDDR5X schwenken können ohne groß etwas zu ändern?
 
Das GDDR5X soll doch hauptsächlich "nur" mehr Leistng bieten... das ist in den Mittelklasse Karten eigentlich noch nicht so wirklch notwendig.
 
Wen ein Chip z.b wieder ca 300-350mm2 bekommt macht Bandbreite doch wieder Sinn mit GDDR5X .

Sieht man ja recht gut das GDDR5 reicht bei der 980Ti um die Fury X mit HBM auf Abstand zu halten.
HBM2 ist so jung das man es wohl wirklich nur bei grossen GPUs einsetzen wird.
Erst später dann irgendwan dann auch in der Mittelklasse.

Man hat ja bei NV auch gut gesehen was geht 680 GTX980 waren für eine Zeit im absoluten Highend Berreich geführt und wurden nach und nach durch grosse Chip zur Mittelklasse degradiert .
 
Zuletzt bearbeitet:
Eine Polaris mit 300-350mm² hätte aber mehr CUs als Fiji.

Ja aber das hat nix zu heissen und man kann die Leistung der Fury X auch so mit GDDR5X überbieten.

Wie ich schon anführte die 980TI zeigt schon ganz gut das nicht GDDR5 das Problem ist um die Leistung steigern zu können.

Ich kann mir durch aus eine kleine GPU mit etwas Mehrleistung als bei der Fury X vorstellen ohne auf HBM zurück greifen zu müssen.

Da könnte AMD sogar besser dran Geld verdienen als auf das Komplexe HBM zurück zu greifen.

Bis HBM richtig Standard wird wird noch etwas Zeit vergehen würde ich meinen.
 
Zuletzt bearbeitet:
Wie ich schon anführte die 980TI zeigt schon ganz gut das nicht GDDR5 das Problem ist um die Leistung steigern zu können.
Durch das 384bit SI wird die GPU dann größer und teurer, es ergibt also keinen Sinn GDDR5 zu nutzen.

Ich kann mir durch aus eine kleine GPU mit etwas Mehrleistung als bei der Fury X vorstellen ohne auf HBM zurück greifen zu müssen.
So klein wird die GPU nicht, wenn man ein 384bit SI braucht.

Bis HBM richtig Standard wird wird noch etwas Zeit vergehen würde ich meinen.
Trotzdem führt bei High-End kein Weg dran vorbei.
 
Ich schätze mal das nur die großen Karten HBM haben werden, also 490/490X und alle anderen GDDR5/GDDR5X, schon allein wegen dem hohen Preis von HBM Speicher durchaus realistisch.
 
@ElKINATOR
Schau dir doch mal an wo die GTX980 von der Leistung steht und das mit nur 256 Bit und nicht gerade schnellem Ram.

384 Bit gab es aber auch schon in klein HD7970 z.b.

Also ich halte da vieles für möglich mit GDDR5X .

Es gab doch soviele Berichte wie Umfangreich und Komplex es ist HBM auf Interposer PCB zu pflanzen.

Ich glaube es lohnt sich derzeit noch sehr wohl mit GDDR5 zu arbeiten zumindest für die Hersteller.
 
Zuletzt bearbeitet:
Das nur High-End HBM bekommt ist ja eigentlich eh schon offiziell bestätigt worden.
 
Ein dehnbarer Begriff Highend wie die Vergangenheit gezeigt hat.
 
Naja ich glaube Elkinator meinte mit High End wirklich das "höchste Ende" des Chips also Wahrscheinlich 490X.

Aber du hast schon recht, öfters ging die Einstufung Mainstream, High-End und dann Enthusiast...
Also High End das non plus Ultra für "normale" (NichtLuxxer) und Enthusiasten für die absolut durchgeknallten :d
 
Jap so meine ich das schrieb ja weiter Oben die Grossen Chips.
Wat solls wird spannend.
 
Zuletzt bearbeitet:
Eine 490X (wenn sie die Karte so nennen) wird im Bereich von 250-300mm² liegen.
Viel mehr kann man sich bei FinFET 2016/2017 nicht erwarten, da wird niemand eine 600mm² GPU fertigen lassen.

Manche erwaten sich ja 2016 noch solche Monstchips.
 
Genau aus dem Grund halte ich den Einsatz von GDDR5 auch nicht für abwegig .
Da so ein Chip wohl gerade so die Leistung einer FuryX überbieten würde und es noch durchaus händelbar wäre den GDDRX einzusetzen um die Leistung leicht drüberzu realisieren.
 
Zuletzt bearbeitet:
Bei GDDR5X hat man ja nicht nur den Durchsatz optimiert sondern auch die Spannung reduziert.
Könnte für Mittelklasse Karten eine ganz interessante Option werden. Ich denke mal es wird wieder Karten mit 128 und 256 Bit Anbindung geben.
Karten mit so breitem Interface wie 390(X) erwarte ich nicht mehr. Da macht HBM einfach deutlich mehr Sinn.
 
Na hoffentlich kommen die Karten bald, meine 6850 nervt mich schon was und wollte sie auch letztens ersetzen.
Just in den moment, was sehe ich eine neue VGA Generation kommt und schon wollte ich warten.

Denn die Karten von AMD/NVIDIA sind schon 4 bis 5 Jahre alt, immer nur was aufpoliert und mit neuen Namen auf den Markt geworfen.
Dieses Mal werde ich mir wohl auch ne Karte zwischen 200 bis 300€ gönnen.

Hätte ich damals gewusst, das die 7890 solange den Markt beherrscht, bei AMD Karten dann hätte ich wohl zugeschlagen.
 
Denn die Karten von AMD/NVIDIA sind schon 4 bis 5 Jahre alt, immer nur was aufpoliert und mit neuen Namen auf den Markt geworfen.
Dieses Mal werde ich mir wohl auch ne Karte zwischen 200 bis 300€ gönnen.

Und reichen dennoch für Alles aus. Sofern Regler bedient werden können. 4-5 Jahre, aha.
 
Und reichen dennoch für Alles aus. Sofern Regler bedient werden können. 4-5 Jahre, aha.

Zwei Sätze die sich nicht vertragen. Reicht für alles aus, solange man nicht alles (an Grafik) nutzt... ahja...

Auf jeden Fall: Der älteste genutzte Chip ist von 2013 mit GCN1, dann noch Hawaii mit GCN2 (oder 1.1) dann Tonga mit GCN2,75 dann Fiji mit GCN3 und die ganze Mischung ist in der aktuellen Generation... Das ist einfach ne Freakshow an Chips!

Es muss endlich ne einheitliche GCN4 14nm Generation her.
 
Na wenn du das forderst, dann muss es wohl.

Der PC ist eben dafür gedacht, nicht einfach einzuschalten und fertig, dass viele Leute heute nur mehr alle Regler nach rechts knallen und sich dann wundern, dass es nicht so klappt, wie sie es sich vorstellen, hat nix mit "alten" Chips zu tun.
 
2016 alles durch FinFET zu ersetzen wird nicht gehen, es ist einfach zu teuer.
Ob die GPUs kleiner werden ist dabei egal, die Kosten pro mm² steigen weil man im Gegensatz zu 28nm jetzt doppelt Belichten muß und die Masken für FinFET auch mehr kosten!

Bei GDDR5X hat man ja nicht nur den Durchsatz optimiert sondern auch die Spannung reduziert.
Quelle?
Aktuell wird berichtet, daß der Durchsatz steigt, aber auch der Verbrauch ansteigt.
 
2016 alles durch FinFET zu ersetzen wird nicht gehen, es ist einfach zu teuer.
Ob die GPUs kleiner werden ist dabei egal, die Kosten pro mm² steigen weil man im Gegensatz zu 28nm jetzt doppelt Belichten muß und die Masken für FinFET auch mehr kosten!


Quelle?
Aktuell wird berichtet, daß der Durchsatz steigt, aber auch der Verbrauch ansteigt.

Wo ich über die 1.35V Spannung für GDDR5X zum ersten mal gelesen habe weiss ich nicht mehr, war aber auf mehreren Hardware Seiten in der Gerüchteküche.
Unter anderem hier findet man das Gerücht wieder:

GDDR5X ermöglicht Speicherausbau von 16 GB an 256 Bit Interface - Hardwareluxx
How fast is GDDR5X vs HBM? • Pokde

Oft wurde bei GDDR5X ja von Frequenzen bis 1.75Ghz gesprochen bei GDDR5 bis zu 2GHz. Wäre denkbar das man die Spannung aufgrund der geringeren Frequenz senken kann.
Wobei man den Energiebedarf für den Speicherausbau bei moderaten Taktraten ja bis zu 256Bit Interfaces noch wirklich gut im Griff hat. So richtig Problematisch wurde das ja meiner Meinung nach erst mit 2/390(x).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh