Vega-Architektur mit HBM2 und neuer Compute-Engine vorgestellt

Okay, mal ganz ab vom Streit grün gegen rot, würde mich mal dieses "Infinite Fabric" interessieren. Ist das jetzt AMDs Neubenennung der HSA oder ist das was anderes?
Soweit ich das verstanden habe ist es was anderes. HSA bezeichnet ja das gesamte Konzept welches dies tut was du beschreibst.
"Infinite fabric" ist nur eine Technologie um verschiedene Komponenten, wie z.B. Rechenwerke und Speicherbausteine mit sehr hoher Bandbreite miteinander zu verbinden.
Dies muss aber auf einem einzigen PCB, oder eher Interposer geschehen. Darum soll das ja bei diesen Grafikkarten mit HBM zum Einsatz kommen, aber auch bei APUs.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein echter "Killer" eher nicht. Aber so um den dreh rum sollte das Teil eigentlich in der maximalen Ausführung schon laufen.

Irgendwer hat doch hier im Thread den "Titan Killer" schon wieder fallen lassen, wenn ich mich nicht irre.

Ich frage mich, wieso die AMD´ler das immer so dramatisieren müssen?! Der erste "Titan Killer" war wie viel schneller? Lass es 5% gewesen sein (falls das überhaupt so war, erinnere mich nicht an genau Zahlen). Das sind bei 60FPS dann 3FPS mehr und das Kärtchen kam wie viel später als die Titan damals? So unglaublich zerstören wie die Roten die Grünen immer (wollten). Warum sind die Karten nicht einfach nüchtern und erwachsen ausgedrückt etwa gleich schnell? Ich weiß noch, wie es hier im Forum mit der 1060 vs 4-irgenwas von AMD losging. In DX12 war die Rote 5% schneller und hat damit die Grüne zerstört, mit ihr den Boden gewischt, sie für alle Ewigkeit vernichtet.

Einfach mal locker bleiben.
 
:) das ist für mich der lockerste GPU-Release aller Zeite (gut der letzten 16 Jahre).
Warum? Freesync - 4K Monitor

Alles was schneller ist als die RX480 ist und Freesync unterstützt wird mit nem Fullcover bestückt und eingebaut.
Vom Sync will ich nicht mehr weg, und den Monitor wechseln ist aus Preis-Leistungssicht ziemlich sinnfrei.

Klar nur eine begrenzte persönliche Situation aber hey :)

Die Vega10 wird mindestens Polaris 10 verdoppeln (die paar Shader weniger werden durch den Takt sicher ausgeglichen werden)
Alles was Archtiketurverbesserungen seind kommen oben drauf -> aber bleiben wir bei P10x2
Meine Bedenken dabei, dass die 512GB/s Vega ähnlich bremsen wie heute P10.

Ich gehe vorsichtig von RX470 x2 aus - das wär ne Punktlandung bei der GTX1080
Wenns mehr wird Super -> wären ~100% Mehrleistung als ich jetzt für mein Setup bekäme
 
Persönliche Meinung: Vega wird in etwa so schnell sein wie eine 1080 und auch in diesem Preisbereich sein.

Allein schon beim Vergleich der Chipfläche (ein GP104 kommt auf 314mm², Vega dagegen auf knapp <500mm²) wäre das schon "leicht" enttäuschend für AMD. Denn gerade vor dem Hintergrund, dass man die Architektur beträchtlich optimiert haben will, kann die Messlatte m.M.n. nur der GP102 (471mm²) sein, sofern man ernsthaft mit Vega am Markt konkurrieren will.
 
Bin zwar zur Titan X gewechselt, weil AMD einfach nichts mehr gebracht hat und ich bin auch zufrieden mit der KArte. Ich hoffe und wünsche mir aber, dass Vega richtig gut wird.
Ansonsten kostet die nächste Titan halt 2000€.
 
@Cippoli: ich verstehe deine Argumentation. Aber ich rechne einfach aus der Erfahrung/Historie heraus eher mit langen Gesichtern als mit dem Leistungswunder. Denn auch die RX480 war vorher mit gutem Marketing angeheizt und kam dann eher auf dem Leistungsniveau der 390x mit weniger Stromhunger. Die größere Chipfläche könnte einfach Features geschuldet sein die man für den Profi / Technikbereich braucht und die für den Gamer nicht relevant sind.

Das ist aber eben auch eine Form von Fortentwicklung: heutige Szenarien werden mit weniger Stromhunger bei gleicher Leistung bedient, für morgige Szenarien ist man bereits gerüstet.

Ich glaube einfach nicht daran dass von AMD ein kompromissloser, gaming-leistungsorientierter Bolide kommt, der alles in Grund und Boden stampft. Mal ehrlich: nvidia schläft auch nicht auf dem Baum. Und es scheint sich bei den beiden Konkurrenten ein echtes Stackelberg Modell gebildet zu haben. Dabei gibt nvidia den Ton an und AMD schließt nach einer Zeit X auf.

Anders betrachtet hat AMD immer wieder ganz eigene Lösungen die interessant sein können, wenn man nicht nur auf Spitzenleistung zielt. Die Fury nano war so ein Beispiel, aber eben auch die RX480. Die einen sagen "nicht Fisch nicht Fleisch", die anderen sagen "schöne Vernunftlösung - auf sowas habe ich gewartet".
 
Danke @DragonTear

Zum Thema rot vs. grün. Also, ich juckle hier noch mit meiner Radeon HD 7970 rum und bis auf Star Citizen kann ich damit noch ALLES spielen. (Gut, bei 1920x1080, was auch nicht mehr top-of-the-line ist, aber es ist okay)
Der Leistungsschub von Release bis heute durch Treiberoptimierungen hat diese Karte extrem langlebig gemacht, so dass ich bei AMD nur alle paar Jubeljahre aufrüsten muss. Ich habe schlimmeres erwartet, als ich die gekauft habe und wurde positiv überrascht.

Nvidia ist für mich die go-to Lösung, wenns darum geht mit ein paar Clicks und ohne großen Aufwand Dinge zum Laufen zu kriegen, bei AMD muss man hier und da schon mal etwas basteln - bekommt dafür aber dank Open Source ne Menge Optionen, die Nvidia erst gar nicht zur Verfügung stehen.

Die ganzen DirectX-Spiele kann ich genüsslich auf Linux zocken, was mit Nvidia einfach nicht geht (Da kein Gallium-nine support)

Zwar bin ich damit ne Minderheit, aber für mich persönlich ist es kauf-entscheidend. Von ordentlichem Async-Support für kommende Spielekracher wie Star Citizen mal ganz abgesehen, wo ich dem grünen Team leider nur ein müdes Lächeln entgegenbringen kann.

Ich sags noch einmal: Raw-power und effiziente Nutzung dieser wird in Zukunft den Ton angeben und dort ist es so, dass AMD Nvidia den Rang abläuft.

Trotzdem: Ich warte auf den Linux-Clienten von Star Citizen und Benchmarks auf diesen, bevor ich mir ne neue Graka besorge, für alles andere reicht meine aktuelle Möhre aus.
 
@Cippoli: ich verstehe deine Argumentation. Aber ich rechne einfach aus der Erfahrung/Historie heraus eher mit langen Gesichtern als mit dem Leistungswunder. Denn auch die RX480 war vorher mit gutem Marketing angeheizt und kam dann eher auf dem Leistungsniveau der 390x mit weniger Stromhunger. Die größere Chipfläche könnte einfach Features geschuldet sein die man für den Profi / Technikbereich braucht und die für den Gamer nicht relevant sind.

1. Kann ich gut verstehen. Es wäre für mich aber kein Leistungswunder wenn Vega 10 in die Region von GP102 kommen würde. Das ist realistisch gesehen für AMD durchaus machbar und auch möglich. Ob es so kommt wird man sehen.

2. Die RX480 mit P10 GPU (232mm²) ist hier gegen den direkten Konkurrenten GTX1060 mit GP106 (200mm²) gut positioniert und konkurrenzfähig.

3. Vega 10 soll nur 1/16 FP64 Performance haben (ca. 750-800 GFLOPS). Ist also nur eingeschränkt für den Profibereich geeignet. Hier soll dann erst 2018 Vega 20 ansetzen.

4. Chipfläche ist nun mal Chipfläche und die kostet Geld. Wenn AMD einen 500mm² Chip gegen einen 314mm² Chip stellt, sind die Ausgangsvoraussetzungen schon einmal nicht wirklich gut.

Ich glaube einfach nicht daran dass von AMD ein kompromissloser, gaming-leistungsorientierter Bolide kommt, der alles in Grund und Boden stampft. Mal ehrlich: nvidia schläft auch nicht auf dem Baum. Und es scheint sich bei den beiden Konkurrenten ein echtes Stackelberg Modell gebildet zu haben. Dabei gibt nvidia den Ton an und AMD schließt nach einer Zeit X auf.

Vega muss auch nicht alles in Grund und Boden stampfen. Bleiben wir einfach nur bei dem was realistisch auch möglich erscheint. :)
 
4. Chipfläche ist nun mal Chipfläche und die kostet Geld. Wenn AMD einen 500mm² Chip gegen einen 314mm² Chip stellt, sind die Ausgangsvoraussetzungen schon einmal nicht wirklich gut.

Ich bezweifle allerdings sehr diese Zahlen, denn:

Die RX480 mit P10 GPU (232mm²) ist hier gegen den direkten Konkurrenten GTX1060 mit GP106 (200mm²) gut positioniert und konkurrenzfähig.

Wenn man bedenkt, dass die SI- Anschlüsse auf dem Die für HBM2 nochmal kleiner sein müssten, als für GDDR5 und zudem nur 2 Stacks drauf sind, dürfte klar werden, dass bei 232*2 = 464 (wobei 4096 / 2304 Shader noch nicht mal 2 ergibt) minus die Platzersparnis wahrscheinlich nicht 500mm² rauskommt, es sei denn, wir haben bis jetzt nur die kleine Karte vorgeführt bekommen, oder die Treiber sind absichtlich grottenschlecht, damit man die endgültige Leistung nicht sieht. Und ich möchte nochmal darauf hinweisen, dass meinen Informationen nach Polaris gar nicht direkt für 14nm konzeptioniert war.
 
Zuletzt bearbeitet:
@oooverclocker: Da gehe ich mal von aus, dass das der überarbeiteten Architektur geschuldet ist. AMD nennt für Vega 10 64CU, demnach erscheinen 4096SP nach bisherigen Kenntnissstand(!) am naheliegendsten. Vergleicht man nun aber den Fury X Chip (ebenfalls 4096SP) mit 596mm² in 28nm, dann dürften es nach einen Shrink auf 14/16nm nur ungefähr 310mm² sein. Vega soll aber 500mm² haben, dass kann dann nur bedeuten, dass sich die Fläche pro Shader drastisch geändert/gesteigert hat. Die Rechnung mit Polaris geht hier also nicht auf. Es scheint also so zu sein, dass AMD die Shader schon teilweise deutlich umstrukturiert hat. Das macht insofern auch Sinn, da man eine bessere Auslastung der Shader erreichen möchte. Mit 6000+ Shader würde die Effizienz noch weiter sinken.
 
Zuletzt bearbeitet:
Das stimmt natürlich und auch wegen des höheren Taktes müsste die Fläche etwas breiter werden. Allerdings wäre das in der Größenordnung schon extrem und da würde ich mir dann die Frage stellen, ob es das wirklich bringt. Wenn es so wäre, dann müsste auf den DOOM- Benchmark meiner Meinung nach am Launchdatum schon noch ein bisschen was drauf...
 
Das stimmt natürlich und auch wegen des höheren Taktes müsste die Fläche etwas breiter werden. Allerdings wäre das in der Größenordnung schon extrem und da würde ich mir dann die Frage stellen, ob es das wirklich bringt. Wenn es so wäre, dann müsste auf den DOOM- Benchmark meiner Meinung nach am Launchdatum schon noch ein bisschen was drauf...

Naja, "extreme" Veränderungen sind es doch was die GCN-Architektur braucht! Aber gerade deswegen bin ich eher positiv gestimmt, dass Vega es auch mit dem GP102 aufnehmen können wird.

Und richtig, die 1 Million Euro Frage ist nun wie weit sich all die Änderungen an der Architektur positiv bemerkbar machen werden. Aber das werden wir wohl erst beim Release zu sehen bekommen. :coffee:
 
Soweit ich das verstanden habe ist es was anderes. HSA bezeichnet ja das gesamte Konzept welches dies tut was du beschreibst.
"Infinite fabric" ist nur eine Technologie um verschiedene Komponenten, wie z.B. Rechenwerke und Speicherbausteine mit sehr hoher Bandbreite miteinander zu verbinden.
Dies muss aber auf einem einzigen PCB, oder eher Interposer geschehen. Darum soll das ja bei diesen Grafikkarten mit HBM zum Einsatz kommen, aber auch bei APUs.

Ich glaub gemeint ist "coherent fabric" und das ist weit mehr als das. Ich würde sogar soweit gehen, dass nicht Zen, nicht der Ryzen-Prozessor und auch nicht Vega die eigentliche Neuentwicklung ist, denn diese Produkte basieren alle samt auf dem coherent fabric-Protokoll. AMD selbst sagte dazu, dass es deren teuerste und aufwendigste Entwicklung bislang sei, und das allein die Entwicklung dieses Protokolls 100e Millionen und 5 Jahre Arbeit gekostet hat. Aber dafür ist es 100% universell und sehr schnell. Es ersetzt auch HSA, ich würd sogar soweit gehen, dass HSA nur eine Übergangslösung war. Wie ich das verstanden habe verwendet sowohl Zen als auch Vega intern sowie sämtliche Schnittstellen der beiden Produkte, also sowohl extern als auch intern coherent fabric. Schließt du eine Vega-GPU an eine Ryzen-CPU an, können die beiden über das Protokoll kommunizieren und die betreffenden Speicher jeweils direkt nutzen. Schließt du eine SSD an, die coherent fabric unterstützt, kann die sowohl über SATA, als auch über PCIe dasselbe tun. Innerhalb des Chips können Module rauf und runterskaliert werden, du kannst Module hinzufügen und wegfallen lassen, du kannst sogar Chipmasken on-the-fly während der Fertigung anpassen und ändern.

Daneben wird auch noch die CCIX-Schnittstelle eingeführt, die auf CF basiert. Damit lassen sich unterschiedliche Chips (auch unterschiedlicher Hersteller) direkt auf dem Die, auf dem Interposer oder auf Substrat Speicherkohärent miteinander vernetzen. Vega und Ryzen werden auch CCIX-Links besitzen, Neples und Starship, sowie entsprechende Server-APUs, werden diesen Link nutzen um die MCMs zu realisieren. CCIX ist allerdings auch von ARM, IBM, TSMC und anderen Partnern lizenziert worden.
 
Zuletzt bearbeitet:
Super info @[HOT]
Ist das bereits mit den kommenden Mainboards der Fall, oder müssen wir da auf einen neuen... ähm... "Chipsatz" warten? Mal ganz salopp als Endbenutzer gefragt, der daran interessiert ist eine effiziente Maschine ohne Flaschenhälse zu haben: Habe ich einen Vorteil davon, Ryzen und Vega auf nem 370-er Motherboard zu benutzen verglichen mit Ryzen-CPU/Nvidia-GPU bzw. Intel-CPU+Vega-GPU?

Ansonsten bleiben ja eigentlich nur noch Chipsatz,(NVMe)SSD + RAM als Systemkomponenten bzw. eine möglicherweise zukünftige low-latenz/high-performance Schnittstelle a la DisplayPort die mit dem fabric kompatibel wäre.
 
@oooverclocker: Da gehe ich mal von aus, dass das der überarbeiteten Architektur geschuldet ist. AMD nennt für Vega 10 64CU, demnach erscheinen 4096SP nach bisherigen Kenntnissstand(!) am naheliegendsten. Vergleicht man nun aber den Fury X Chip (ebenfalls 4096SP) mit 596mm² in 28nm, dann dürften es nach einen Shrink auf 14/16nm nur ungefähr 310mm² sein. Vega soll aber 500mm² haben, dass kann dann nur bedeuten, dass sich die Fläche pro Shader drastisch geändert/gesteigert hat. Die Rechnung mit Polaris geht hier also nicht auf. Es scheint also so zu sein, dass AMD die Shader schon teilweise deutlich umstrukturiert hat. Das macht insofern auch Sinn, da man eine bessere Auslastung der Shader erreichen möchte. Mit 6000+ Shader würde die Effizienz noch weiter sinken.

Versteh' mich nicht falsch, das soll keine Anfeindung sein, aber... Meinst du wirklich, dass man dabei gerne die Kosten pro mm² in 14/16nm belichtet weniger gewichtet um mehr "Mehrwert" bieten zu können?
 
Zuletzt bearbeitet:
Es geht bei der Fläche auch um Ausbeute. Je größer die Fläche, desto geringer die Ausbeute. Wenn du jetzt ein einfacheres Belichtungsdesign hast (Nvidia hat damit bis heute Probleme), kannst du größere Flächen benutzen bei gleicher Ausbeute. Das kann sich eventuell ausgleichen.

Ansonsten sind größere Dies meist effizienter als kleinere, da du verhältnismäßig weniger "Support-Struktur" (sowas wie Speichercontroller) hast und mehr Platz für Shader/CUs etc hast - was also direkt die Leistung steigert. Aber auch hier gibts nen Grenzwert zu Leistung/Ausbeute. (abhängig von Lithographietechnologie, Erfahrung der Fab, Prozessverbesserung...)

500m^2 sind schon ziemlich die Grenze...
 
Versteh' mich nicht falsch, das soll keine Anfeindung sein, aber... Meinst du wirklich, dass man dabei gerne die Kosten pro mm² in 14/16nm belichtet weniger gewichtet um mehr "Mehrwert" bieten zu können?

Was die Fertigungskosten betrifft, dürfte es ziemlich egal sein, ob ich nun 500mm² mit ineffizienten 6000+ Shader oder mit effizienteren 4096 Shader fülle. Es geht hier allein um die Leistung pro Watt, sprich Effizienz.
 
Sollte AMD mit knapp 500mm2 den 470mm2 großen GP102 von Nvidia Paroli bieten können, dann wäre das ein OK Kriterium.

Sollte aber AMD mit knapp 500mm2 den Nvidia GP104 mit 320mm2 nur Paroli bieten können, dann wäre das ein KO Kriterium.
 
@kalle666: Was wenn AMD genau in der Mitte landet und mit knapp 500mm² einen fiktiven GP103 mit ~400mm² Paroli bieten würde? KO oder OK? :d
 
Wenn man bedenkt, dass die SI- Anschlüsse auf dem Die für HBM2 nochmal kleiner sein müssten, als für GDDR5 und zudem nur 2 Stacks drauf sind, dürfte klar werden, dass bei 232*2 = 464 (wobei 4096 / 2304 Shader noch nicht mal 2 ergibt) minus die Platzersparnis wahrscheinlich nicht 500mm² rauskommt, es sei denn, wir haben bis jetzt nur die kleine Karte vorgeführt bekommen, oder die Treiber sind absichtlich grottenschlecht, damit man die endgültige Leistung nicht sieht. Und ich möchte nochmal darauf hinweisen, dass meinen Informationen nach Polaris gar nicht direkt für 14nm konzeptioniert war.

Schau dir doch einfach mal die Folien selbst an. Da sind bei paar Sachen dabei, davon kann Polaris einfach nur träumen.
NCU, wie es AMD schimpft, 1:1 auf die alten CUs aufzuwiegen ist also nicht. Dazu kommt der ganze Beikram, der für andere Märkte außer "Games" wichtig ist usw. usf.
Das die Rechnung Polaris x2 in dem Fall nicht aufgeht, dürfte klar sein und auch vollkommen verständlich...

Nur um dir mal in etwa ansatzweise klar zu machen worüber wir da reden -> DIE Size GP100 vs. DIE Size GP102. BEIDE Chips haben 4096 ALUs verbaut. Beide Chips sind bei Taktgleichheit fast gleich schnell in Games, mal was mehr, mal was weniger -> die Skalierung der 64er Blöcke beim GP100 ist offen. Dennoch ist der GP100 deutlich! größer. Mehr Beiwerk, mehr Fläche...

Der Spaß, wie du es hier rechnen willst -> und woraus du hier schon wieder abwitzige und völlig übertriebene ALU Ausbauten herzauberst, geht also absolut und gar nicht auf. Schon allein die Art Mixed Precision -> das kommt doch nicht aus der Luft.

Echt komische Vorstellungen werden hier manchmal geäußert -> und dann heulen se alle wieder rum, weil die Erwartungen nicht erfüllt wurden :wall:
 
das wäre dann
O
K
:d

Kommt halt sehr drauf an, wie stark sich die neu NCU Architektur takten lässt.
 
@NasaGTR: Ich schließe mich auch mit einen OK an (auch wenn Vega nicht ganz so taktfreudig sein sollte). Immerhin gäbe es dann die Möglichkeit, das auch im höherpreisigen Segment etwas Bewegung rein kommt und die Preise dann nach unten purzeln. Davon würden dann alle profitieren. :)
 
Taktseitig, einfach abwarten... Wenn AMD sagt, da kommen 12,5TFlop/s raus, dann kommen da 12,5TFlop/s raus -> die Angabe wird sich ziemlich sicher (also zu 99,9%) auf den Turbo beziehen. Was soviel heist wie, man kann davon ausgehen, dass die Taktraten höchstwarscheinlich >1,5GHz gehen werden. Je nachdem, wie "schmerzfrei" man beim OC ist oder die Partner auf die OC Modelle drauf drücken wollen und werden...
Ref. kauft doch so oder so der geneigte Enthusiast eher weniger. Große MGPU Setups, wo das Ref. Layout samt Brülllüfter Sinn ergibt -> werden auch nur die allerwenigsten anstreben. Passt schon ;)
 
Wenn das ref Design ein ordentliches PCB und ne vernüftige Spannugnsversorgung hat, kaufen sowas all die Leute mit ner Wasserkühlung. Da interessiert der Stock kühle ja nicht.

Hoffentlich wird das ein gutes PCB, ich will nen aquacomputer Wakü drauf bauen und keinen EKWB...
 
Wenn das Ref Design aber so wie RX480 wird, und man nahezu zu custom PCBs gezwungen wird, ist man dann gezwungen EKWB Kühler zu verbauen, wenn überhaupt Kompatible kommen was wenn überhaupt erst 2-3 Monate Später passiert...
 
Wo ist denn das Referenz PCB der RX480 schlecht? Wegen 6Pin?
Da kann man doch problemlos 150 Watt drüberjagen.


Gesendet von iPhone mit Tapatalk
 
Wenn das Ref Design aber so wie RX480 wird, und man nahezu zu custom PCBs gezwungen wird, ist man dann gezwungen EKWB Kühler zu verbauen, wenn überhaupt Kompatible kommen was wenn überhaupt erst 2-3 Monate Später passiert...

Kann ich so nicht bestätigen -> hab ne ref 480@kryographics
bis jetzt hab ich mich "nur" an 200W Chip Power (nur die GPU) rangetraut aber da ist noch Luft nach oben.
Die Spannungsversorgung ist herrlich überdimensioniert für die kleine GPU 6Pin hin oder her :)
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh