Vega-Architektur mit HBM2 und neuer Compute-Engine vorgestellt

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.052
<p><img src="/images/stories/logos-2016/amd-vega-logo.jpg" style="margin: 10px; float: left;" />Kurz nachdem man sich bei AMD dazu entschlossen hatte, mit der Polaris-Architektur auf den Mittelklasse- und Mobile-Markt abzuzielen, folgte die Entscheidung mit einer parallelen Architektur-Entwicklung andere Märkte in den Fokus zu nehmen. Auch wenn AMD in den vergangenen Monaten immer wieder neue FirePro-Grafikkarten auf den Markt brachte, so schien man den Trend zum Machine Learning, Deep Learning, Artificial Intelligence etwas verschlafen zu haben – auch weil die verfügbaren GPUs aufgrund ihrer Architektur in diesem Bereich nicht ihre Stärken hatte. Mit der Vega-Architektur soll diese Lücke nun geschlossen werden. Heute gibt AMD einen ersten Einblick auf das, was uns 2017...<br /><br /><a href="/index.php/artikel/hardware/grafikkarten/41355-vega-architektur-mit-hbm2-und-neuer-compute-engine-vorgestellt.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zusammenfassung: HBM2 ist da
Reaktion: Welch Überraschung ... not.
 
Also wenn der kleinere Vega mit der 1080 mithalten kann, dürfte der größere ja nochmal ein gutes Stück schneller sein.
Schade, dass wir wohl noch ca. 6 Monate bis zu den ersten Karten warten müssen.

Diese Jahr wird aber def. interessant - mit Ryzen und Vega gibt's mal endlich wieder gescheite Konkurrenz zu Intel und NVidia. Profitieren tun davon am Ende vor allem wir als Kunden.
 
@Don, kannst du die Aussage seitens CB zum Thema pro Takt Performance bestätigen??

"Zu einer höheren Leistung der NCU pro Takt sollen aber auch andere Anpassungen sorgen. So wurde der Instruction Buffer vergrößert, sodass der Datendurchsatz unabhängig von der Art der Berechnung ansteigen soll. AMD spricht von einer doppelt so hohen IPC – was jedoch nur im Vergleich FP32 auf einer CU gegenüber FP16 auf einer NCU gilt. Die IPC-Steigerung bei reinen FP32-Operationen bleibt damit unklar."
Weil rein logisch ist das irgendwie unsinn... Warum sollte AMD von "doppelter IPC" sprechen, dann aber meinen, dass Vega nun dank doppeltem FP16 Speed ggü. FP32 doppelt so fix ist... Was hat man dann gewonnen? Nix...


Mal schauen was wird...

PS kleine Korrektur: "Diese neue Compute Engine kann 512 8-Bit Operationen pro Takt, 256 16-Bit Operationen pro Takt und 128 32-Bit Operationen pro Takt ausführen. Damit kommt die Vega-Architktur auf ein 4:2:1-Verhältnis für diese Datentypen und liegt wieder auf Niveau der Hawaii-GPUs."
-> ist nicht ganz richtig... Hawaii kann kein FP16 in doppeltem Speed von FP32. Das Verhältnis von Hawaii ist bestenfalls 8:2:2:-)1) -> letzteres in Klammern für FP64 aka DP. Wie es mit INT8 ausschaut, keine Ahnung wie gut Hawaii das überhaupt kann...
Vom Verhältnis her entspricht der Spaß ziemlich exakt dem GP100 von NV. Mit 8:4:2:-)1), zumindest potentiell, wenn man letztes voll ausfahren würde für FP64 :wink: Eine andere GPU, die das in der Art KANN, gibt es im Moment nicht. Weder von NV noch von AMD ;)
 
Zuletzt bearbeitet:
Nichts dabei, was man nich eh schon gewusst hat.

Heißt also im Klartext, dass AMD nun tatsächlich knapp 1 Jahr lang den High End GPU Markt vollkommen NVidia überlassen hat.

Na die werden sich diebisch über ihren Umsatz freuen.
 
Zuletzt bearbeitet:
Nichts dabei, was man nich eh schon gewusst hat.

Heißt also im Klartext, dass AMD nun tatsächlich knapp 1 Jahr lang den High End GPU Markt vollkommen NVidia überlassen hat.

Na die werden sich diebisch über ihren Umsatz freuen.

1 jahr? das doch schon ewig so ... und wird vermutlich auch noch ewig so bleiben.
bei cpus isses doch genau das selbe :/
 
Zuletzt bearbeitet:
@Sonne

Das nennt man tricksen :wink: immerhin geht Nvidia beim Titan X bis auf INT8 herunter, also was ist dann schon FP16 und INT16...


Bin ja net der einzige, der davon ausgeht, daß Microsoft ihre 6TF Scorpio Leistung auch so "trickst" und am Ende dann durch den Nodeshrink die doppelte Xbox One Slim Performance, also ~3TF, zur Verfügung stehen.

Würde am Ende niemand auch mehr interessieren, ob nun 3 oder 6TF, sollte Mircosoft dann mal auch gelaunched haben.
 
Zuletzt bearbeitet:
Also etwas mehr info als nur HBM2 war das ja schon!
Amd sollt sich mal beeilen.. ich hol mir übergangsweise wohl eine 480 mit 4gb..
 
@Don, kannst du die Aussage seitens CB zum Thema pro Takt Performance bestätigen??

Also ja, AMD sagte doppelte IPC bei FP16, weil FP32 im NUC 2x FP16 macht. Aber die Aussage ist in der Form natürlich Unsinn, weil ich hier zwei völlig unterschiedliche Leistungswerte vergleiche. So wie ich das verstanden habe und wenn man FP32 vs. FP32 vergleicht, dann sagte AMD etwas in der Form: "Durch andere Optimierunge sollen die NCU auch eine höhere Single-Threaded-Leistung vorzuweisen haben." Das ist natürlich wage, weil man eigentlich gar nicht sagt wie viel schneller und warum genau.
 
Mhh .. ausnahmsweise gar keine Rechtschreibfehler auf den Folien. Ich stelle die Echtzeit in Frage. :d :d :d
 
Wie kommst du auf die 1 Jahr ?

Na seit Mitte 2016 ist von AMD in diesem Bereich nichts mehr gekommen und NVidia thront mit der GTX1080 und Titan an der Spitze. Da sich das auch bis etwa Mitte 2017 nicht ändern wird, sind wir bei knapp einem Jahr.
 
Warum seid ihr die Einzigen, die jedes mal die Folien mit HWLUXX Schriftzügen verhunzen? Alle anderen Seiten dürfen das auch ohne Schriftzüge verwenden.
Führt manchmal echt zur Unleserlichkeit und ist extrem anstrengend zu lesen.
 
Warum seid ihr die Einzigen, die jedes mal die Folien mit HWLUXX Schriftzügen verhunzen? Alle anderen Seiten dürfen das auch ohne Schriftzüge verwenden.
Führt manchmal echt zur Unleserlichkeit und ist extrem anstrengend zu lesen.

Alle Seiten haben eine Art Watermark drauf, auch videocardz. HWL machts halt etwas großzügiger.
 
Sehr informativ ! Da haben sie ja massive Änderungen und Neuerungen in die Vega-Architektur integriert. Das sollte eigentlich genügen um NVIDIA gut in Bedrängnis zu bringen.

Ich freue mich riesig auf Vega. :fresse2:
 
Das Wasserzeichen stammt nicht von uns, sondern von AMD. Im Nachhinein die Galerie zu erneuern, mit der Folie ohne Wasserzeichen, ist etwas Aufwand.
 
Alle Seiten haben eine Art Watermark drauf, auch videocardz. HWL machts halt etwas großzügiger.

Ja, aber bei uns ists echt extrem und nervig.

Das Wasserzeichen stammt nicht von uns, sondern von AMD. Im Nachhinein die Galerie zu erneuern, mit der Folie ohne Wasserzeichen, ist etwas Aufwand.

Ist ja quasi Mobbing, dass nur wir solche verseuchten Folien bekommen :(
 
Das Wasserzeichen stammt nicht von uns, sondern von AMD. Im Nachhinein die Galerie zu erneuern, mit der Folie ohne Wasserzeichen, ist etwas Aufwand.

Autsch - was habt ihr denn verbrochen? Mal Folien vor NDA weitergegeben?
Das sieht sonst echt nirgends so vollgepackt aus :d

Btw die "Folien" gibts auch ohne Wasserzeichen, einfach Screenshots der 5 geposteten Videos machen.. Folien-Content ist identisch.

Leider war nix neues für mich dabei. Und Videocardz hat natürlich alle Folien schon vor ein paar Stunden rausgeworfen. Im Großen und Ganzen:
- Neue Architektur (bzw. die Basis hierfür)
- (deutlich) weniger Energieverbrauch
- (deutlich) höhere Taktraten
- Mit Nvidia Tech gleichgezogen (Compression/Draw Stream Binning Rasterizer/etc.)
- HBM 2.0 mit 8GB (16gb nicht bestätigt bzw. nur auf Workstation Karten?)

Ich würde sagen 15% mehr IPC (Gaming), 20% höhere Takts (1500+?) und natürlich ein entsprechend fetter Chip mit >4k CUs - oh sorry, NCUs.
Wer will wetten wo die (vermeintlich stärkere Karte - Vega 10) von der Performance her liegt? :d

mfg,
Markus
 
Zuletzt bearbeitet:
Die wasserzeichen sind ja noch schlimmer als die von den dubiosen Facebookseiten. Das hat mir echt Augenkrebs gegeben.
 
wenn die keine detalierte benches zeigen mit ihrem konkurrenten und nur 2 ausgewaehlte produkte kanns nur nen flop sein.
 
wenn die keine detalierte benches zeigen mit ihrem konkurrenten und nur 2 ausgewaehlte produkte kanns nur nen flop sein.
Das war eine Vorstellung der Architektur - wie angekündigt. Die Karte ist noch nicht völlig fertiggestellt. Und wovon laberst du da in deinem 1-liner?
 
Bin ja net der einzige, der davon ausgeht, daß Microsoft ihre 6TF Scorpio Leistung auch so "trickst" und am Ende dann durch den Nodeshrink die doppelte Xbox One Slim Performance, also ~3TF, zur Verfügung stehen.

Ich kapier jetzt nicht ganz, worauf Du hinaus möchtest. Normalerweise gibt man immer die FP32 an. In der Regel sind 64 Bit- Register für die kleineren Operationen unterteilt(halbiert) und somit im Verhältnis 1:2:4:8 aufgebaut. Je nach Anforderung sind manche Genauigkeiten außer FP32 aus verschiedenen Gründen "verkrüppelt", beispielsweise um Leute dazu zu bewegen die Profikarte(-> FP64) zu kaufen.

Wenn Microsoft also sagt, dass die integrierte Vega- GPU mit über 6 TFLOPS arbeiten wird, dann ist damit selbstverständlich 6 TFLOPS FP32 gemeint. Alles andere ergibt auch keinen Sinn, weil die PS4 Pro mit Polaris- GPU ja auch schon 4,2 TFLOPS hat. Zudem hat die Xbox One S nur 1,4 TFLOPS, die Scorpio wird also mehr als die vierfache Leistung bringen.

Von Trickserei könnte man höchstens sprechen, wenn AMD für Vega 48 TFLOPS angeben würde, oder wenn Microsoft von 24TFLOPS für die Scorpio sprechen würde, ohne dazu zu sagen, dass die FP8- Leistung gemeint ist.
 
Ich kapier jetzt nicht ganz, worauf Du hinaus möchtest. Normalerweise gibt man immer die FP32 an. In der Regel sind 64 Bit- Register für die kleineren Operationen unterteilt(halbiert) und somit im Verhältnis 1:2:4:8 aufgebaut. Je nach Anforderung sind manche Genauigkeiten außer FP32 aus verschiedenen Gründen "verkrüppelt", beispielsweise um Leute dazu zu bewegen die Profikarte(-> FP64) zu kaufen.
Nein, man geht/ging sowohl bei AMD als auch bei NV mittlerweile weg davon, FP64 oder FP32 Performance anzugeben... Teils wirbt man mittlerweile sogar ausschließlich mit FP16, weil die Zahl größer ist. NV hat glaube ich sogar jüngst mit dem GP104/102 sogar INT8 propagiert.
Worauf er hinaus will, ohne Angaben, auf was die Werte sich beziehen, ist der Spaß schlicht wertlos... Denn denke einfach mal einen Schritt weiter, häufig wird sowas bspw. in Verbindung mit Energieeffizienz angegeben.
Ein Vega ggü. Polaris oder von mir aus auch Fiji, Hawaii, whatever, der in Sachen FP16 eben nur so schnell kann, wie er auch in FP32 kann -> wäre in der Energieeffizienz rein durch den doppelten FP16 Speed ggü. FP32 bei sonst gleichem Rest (Einheitenanzahl, Takt usw.) perse schon doppelt so effizient. Mit Aussagen wie, Energieeffizienz größer Faktor 2 usw. trickst man da einfach... Real ist das aber nur bedingt der Fall -> weil nur auf diesen Fall zutreffend.

Von Trickserei könnte man höchstens sprechen, wenn AMD für Vega 48 TFLOPS angeben würde, oder wenn Microsoft von 24TFLOPS für die Scorpio sprechen würde, ohne dazu zu sagen, dass die FP8- Leistung gemeint ist.

Wo ist jetzt der Unterschied, wenn FP16 oder INT8 angegeben wird -> wo beides im Moment uninteressant für den Gamer ist!?
Glaube kaum, dass ich hier mehr als eine Hand voll User für Dinge abseits des Gamings interessieren... :wink:

Ich würde sagen 15% mehr IPC (Gaming), 20% höhere Takts (1500+?) und natürlich ein entsprechend fetter Chip mit >4k CUs - oh sorry, NCUs.
Wer will wetten wo die (vermeintlich stärkere Karte - Vega 10) von der Performance her liegt? :d

Aus was schließt du "15% mehr IPC (Gaming)" und ">4k CUs"??
Vor allem die 15% -> mit Polaris hat AMD das sogar selbst ausgesagt, nämlich in Form von Aussagen wie, up to 15% mehr pro Takt Performance ggü. älteren GCN Umsetzungen. Hier halten sie sich (noch) bedeckt und sprechen von "Vorteilen" unbekannter Höhe...

Auch die größer 4096 ALUs -> halte ich für vorerst für ausgeschlossen... Das Teil kann effektiv ähnlich viel in der Basis wie der GP100 und ist/wird auch im Profimarkt dessen Konkurenz. Wo soll dafür Platz sein? Mit ein bisschen höherer Packdichte kann man optimieren. Aber das macht nicht so viel Luft, dass man da größer 4096 ALUs drauf bekommt inkl. allem Rest.
Auch sieht es im Moment nicht danach aus, als würde es einen reinen Gaming-Ableger davon geben. Sondern das wird wie Hawaii ein Gamer/Profi-Zwitter. Und durch diese Kombination mit allen Vor- und Nachteilen.

PS: Performance Vega -> leicht über der 1080er in Games :wink: So meine Prognose. Wie "nah" an der TitanX dran bzw. kommenden 1080TI dran, wird sich zeigen...
 
Zuletzt bearbeitet:
PS: Performance Vega -> leicht über der 1080er in Games :wink: So meine Prognose. Wie "nah" an der TitanX dran bzw. kommenden 1080TI dran, wird sich zeigen...

Jup so schätze ich das auch ein.
Leider hat nv die 1080 inkl. etlicher Partnerkarten der 1080 schon lange auf dem Markt.

Die 1080ti als amd vega Konter wird so lange wie möglich zurück gehalten aber bevor amd released auf den Markt geworfen.
Dabei wird kräftig an Volta gearbeitet und ist nv entsprechend amd weiterhin vorraus.
 
Aus was schließt du "15% mehr IPC (Gaming)" und ">4k CUs"??
Vor allem die 15% -> mit Polaris hat AMD das sogar selbst ausgesagt, nämlich in Form von Aussagen wie, up to 15% mehr pro Takt Performance ggü. älteren GCN Umsetzungen. Hier halten sie sich (noch) bedeckt und sprechen von "Vorteilen" unbekannter Höhe...

Vega ist eine komplett "neue" Architektur mit "neuen Shadern". Kann man alles aus der Präsentation ersehen.
Polaris war nur ein Feinschliff der GCN-Architektur. Vega macht da eine komplett neue Renovierung.
Es muss nicht 15% sein aber kann auch 30% werden.

Auch die größer 4096 ALUs -> halte ich für vorerst für ausgeschlossen... Das Teil kann effektiv ähnlich viel in der Basis wie der GP100 und ist/wird auch im Profimarkt dessen Konkurenz. Wo soll dafür Platz sein? Mit ein bisschen höherer Packdichte kann man optimieren. Aber das macht nicht so viel Luft, dass man da größer 4096 ALUs drauf bekommt inkl. allem Rest.

Auch das Thema hatten wir schon mehrfach zu genüge. Mann kann nicht NVIDIA mit AMD vergleichen.
NVIDIA benötigt für die Doppelte Genauigkeit sogenannten DP-Einheiten. Die müssen separat zu den Shadern vorhanden sein. Daher ist ein GP102 auch deutlich keiner als ein GP100. Logisch oder?
AMD braucht keine zusätzlichen DP-Einheite. Ihre Architektur ist so flexibel, dass ihre Shader beides können.

Bei einer Die Fläche von geschätzten 520-530mm² können sogar mehr als 4K-Shader vorhanden sein. Vielleicht sogar 5K-Shader.

Auch sieht es im Moment nicht danach aus, als würde es einen reinen Gaming-Ableger davon geben. Sondern das wird wie Hawaii ein Gamer/Profi-Zwitter. Und durch diese Kombination mit allen Vor- und Nachteilen.

Das war doch auch schon immer so. Bei einer Architekturvorstellung ist immer primär der Profimarkt das Hauptaugenmerk. War auch bei NVIDIAs GP100 so oder?

PS: Performance Vega -> leicht über der 1080er in Games :wink: So meine Prognose. Wie "nah" an der TitanX dran bzw. kommenden 1080TI dran, wird sich zeigen...

Das ist die einzige unsicher Konstante. Wird NVIDIA noch mit einer GTX1080Ti kontern oder gleich komplett auf Volta umschwenken. Wäre zwar ein riesiger Kraftakt, aber die Mittel hätten sie ja dazu.
Unwahrscheinlich ist es nicht, da eine GTX680 auch nie als eine Ti kam.
 
Zuletzt bearbeitet:
Bei einer Die Fläche von geschätzten 520-530mm² können sogar mehr als 4K-Shader vorhanden sein. Vielleicht sogar 5K-Shader.
Ich rechne eher auch mit ~6000 Shader...
Meine 4K hatte ja schon die Fury und die kommt doch nur auf etwa 60% der Leistung einer 1080. Auch wenn ich es hoffen würde, ich kann nicht so richtig glauben dass AMD die Leistung pro Shader wirklich verdoppeln konnte.
50% mehr Shader, 20-30% mehr Takt und 10-30% Architekturverbesserung dagegen kämen gut auf das gezeigte Niveau und klingt plausibler.

"hoffentlich gibts von AMD bald wieder Konkurenz damit ich meine Nvidia Karten billiger kaufen kann 111!!!!"
im Endeffekt sind genau diejenigen an den hohen Preisen schuld, denn IHR kauft ohne mit der Wimper zu zucken GPUs für 800€+
Leider wahr.
 
Zuletzt bearbeitet:
Mal wieder ist AMD zu spät...

nur für die ungeduldigen Nvidia Kiddies :)

am besten finde ich ja immernoch folgenden Spruch:

"hoffentlich gibts von AMD bald wieder Konkurenz damit ich meine Nvidia Karten billiger kaufen kann 111!!!!"
im Endeffekt sind genau diejenigen an den hohen Preisen schuld, denn IHR kauft ohne mit der Wimper zu zucken GPUs für 800€+
das Video erklärt es perfekt
https://www.youtube.com/watch?v=ANz0CBa0wyg
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh