Reddit AMA: Vega auf der Computex ausgestellt und 16 GB HBM2 auch für Spieler möglich

rx vega wird ca gleich schnell sein wie gtx 1080 ti im dx11 spielen und beim dx12 sowie 4k etwas schneller performan und das ist alles mal sicher.

das ist schonmal also fakt, weil vega bei weit über 1,6ghz takten wird und zeigt klar und deutlich mit welches architektur wir hier zu tun haben, nämlich absolut auf pascal pro shader takt und drüber !!!

ansonsten kann sich amd nicht erlauben für ihren big rx vega über 700€ zu verlangen und für vega cut auch nicht mehr als 500€.
 
Zuletzt bearbeitet von einem Moderator:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nix für ungut... aber fakt ist, dass die Vega existiert... sonst noch nichts :) Wird sicherlich ne bomben karte... aber um über fakten zu reden, dafür ist noch viel zu früh
 
genau nix für ungut... aber dann hast du die technikwelt zwischen fiji und pascal was shader pro takt angeht noch nicht verstanden, das ihr immer wieder kommen musst mit euren bla bla zu früh usw :(

ich hoffe konnte dir doch ein wenig denkanstoß geben bzw an alle die so kurzsichtig denken ;)
 
Zuletzt bearbeitet von einem Moderator:
rx vega wird ca gleich schnell sein wie gtx 1080 ti im dx11 spielen und beim dx12 sowie 4k etwas schneller performan und das ist alles mal sicher.

das ist schonmal also fakt, weil vega bei weit über 1,6ghz takten wird und zeigt klar und deutlich mit welcher archiktetur wir hier zu tun haben, nämlich absolut auf pascal pro shader takt und drüber !!!

ansonsten kann sich amd nicht erlauben für ihren big rx vega über 700€ zu verlangen und für vega cut auch nicht mehr als 500€.

Fakt ist, dass du deine Texte bitte Korrektur lesen solltest. Da sind diverse Wörter zu finden die an den Stellen nichts zu suchen haben.
Ein weiterer Fakt ist, dass alles was du als Fakt darstellst leere Behauptungen und Spekulationen von dir sind. Das hat nichts mit Fakten zu tun sondern ist einfach Müll.
 
ja und was real als fps an dein Monitor ankommt ist irrelevant? Die Architektur ist neu... wir haben keine Erfahrungsberichte... du weißt nicht wie hoch die Taktung wird... vielleicht knallen die eine 1900-2000Mhz Wasserkühlung Lösung raus (Vorsicht ich übertreibe mit Absicht)... und die Vega ist deutlich schneller als die TI... und schon sind deine Fakten Geschichte...

Ich bin ja auch deiner Meinung, dass die TI geknackt wird, denke sogar etwas deutlicher als erwartet... aber halt nur eine Vermutung
 
Gubb3L,

auch für dich post 63 ;)

Hab ich gelesen und da steht nur blabla drin. Das einzige was du sagst ist, dass wir ja bei Fiji und Pascal Shader pro Takt nicht verstanden hätten aber weder in deinem ersten Post noch im Zweiten schreibst du was du meinst.
Also hör das dumme Labern auf und liefer doch mal Fakten oder begründe deine Vermutungen wenigstens vernünftig. Labern kannst du anscheinend ganz gut aber bisher hab ich nichts Stichhaltiges von dir hier gehört was deine "Fakten" :-)rofl:) unterstreicht.

Wenn du das wirklich machen solltest bemüh dich doch etwas vernünftige Sätze zu schreiben.
 
Zuletzt bearbeitet:
fubuman05,


logisch gesehen ist erstmal, das immer spiele gibt bzw geben wird die besser performen auf der eine architektur als auf der andere.

aber was ich hier andeuten wollte ist, das vegas architektur definitive auf pascal pro shader takt aufgeschlossen hat und sogar drüber.

wie gut dann die aktuellen spiele auf vegas architektur performen werden und vor allem ob die treiber ordentlich für die spiele optimiert sind, wird man bald sehen.

denn sollten die treiber kein hindernis mehr sein für den pro shader takt, so sehe ich dann vega ganz klar und deutlich vor eine gtx 1080ti und das in allen spielen.
 
Zuletzt bearbeitet von einem Moderator:
genau nix für ungut... aber dann hast du die technikwelt zwischen fiji und pascal was shader pro takt angeht noch nicht verstanden

Was ist denn shader pro Takt? Shaderleistung pro Takt gibt es. Meinst du dann das?
Nichts für ungut aber ich lese deine Postings schon länger und muss mir immer wieder ans Hirn fassen wenn ich hier mitlese.
 
ja leistung pro shader takt gemeint.

du kannst mich doch einfach auf ignorierliste wenn dir meine post nicht passen ;)
 
Ich glaube er meint die Leistung pro Takt im Verhältnis zur Shaderanzahl bin mir aber nicht sicher. In dem Fall wäre klar, dass wenn Vega min. die gleiche Leistung pro Takt hätte, Vega schneller wär, da mehr Shader vorhanden sind.
 
Zuletzt bearbeitet:
genau mit den leistung pro shader takt ist man sogar über pascal drüber und sollten die treiber dann noch mit der zeit passen, so sehe ich rx vega immer vor eine gtx 1080ti.
 
Zuletzt bearbeitet von einem Moderator:
Und woran machst du fest dass man dort über Ppascal liegt?
 
Zuletzt bearbeitet:
wahrscheinlich über die tflops von FE (Die RX soll ja stärker werden) aber die knapp 13 Tflops müssen auch erstmal auf die Straße gebracht werden... 1000PS mit Fahrradreifen sieht gegen 100PS mit Rennreifen auch ziemlich alt aus... Deshalb werden leider zuviele Spekulationen als Fakten verkauft
 
wahrscheinlich über die tflops von FE (Die RX soll ja stärker werden) aber die knapp 13 Tflops müssen auch erstmal auf die Straße gebracht werden... 1000PS mit Fahrradreifen sieht gegen 100PS mit Rennreifen auch ziemlich alt aus... Deshalb werden leider zuviele Spekulationen als Fakten verkauft

Ja nur kann man die Shader nicht einfach so vergleichen und wenn man es schon tut welche Vergleichswerte nimmt man da? Mit welchem Takt lief z.B. eine 1080ti wenn sie die von Nvidia angegeben 11,5TF bringt? Sind es die 1582 Mhz Boostspeed oder mehr?
Nimm man die 1582 oder runden wir es mal auf 1600 (1,1%), ist die Nvidia pro Shader effizienter Da stehen dann 0,00320 vs 0,00306 (bei 12,5TF) vs 0,00317 ( bei 13TF).
Rechnet man gegen müsste eine 1080ti um mit gleicher Shaderleistung pro Takt wie die AMD noch 11,5TF zu erreichen bei 1675Mhz bzw. 1615Mhz takten. Kann also gut sein das sich die 11,5TF nicht auf die 1582Mhz (1600) beziehen denn die 1675Mhz schafft jede 1080ti ohne Usereingriffe. Hier hätte ich gerne mal einen Beleg von crynis gesehen das die AMD Effizienter ist.


Das ganze muss aber auch im Game ankommen und das ist eins der großen Probleme von AMD bisher. AMD müsste angenommen Vega kommt mit 1700 Mhz Takt um schneller als eine 1080ti@1800Mhz zu sein ihre Leistungsausbeute in Spielen im Schnitt um über 23% steigern. Bezugswert war die Annahme das eine 480 vs 1060 ungefähr gleich schnell sind im Schnitt der Spiele (31,81% mehr Rohpower auf Seiten von AMD).
Das wäre natürlich unter der Annahme einer perfekten Skalierung bezüglich der Shaderanzahl auf Seiten von Nvidia und AMD. Da dieses Problem aber auf beiden Seiten besteht habe ich das jetzt mal nicht raus gerechnet. Durch die geringere Gesamtanzahl an Shadern hat Nvidia in dem Bereich aber meist auch besser abgeschnitten.

Natürlich ist das ganze jetzt sehr simpel gerechnet und man kann das bestimmt noch viel genauer anstellen. Ich sehe allerdings derzeit nicht den von crynis erwähnten Leistungsvorteil bei der Shaderleistung pro Takt. Aber er wird das wohl auch nicht genauer belegen können. Wie auch.
 
Zuletzt bearbeitet:
Naja, vielleicht muss man auch gar nicht wirklich entscheiden was wichtig ist oder nicht. Es würde doch auch ausreichen wenn das was gerade gebraucht wird einfach nur schnell genug zur Verfügung steht. Frag mich aber nicht wie genau das funktionieren soll... :d

Klar, das wäre sozusagen das Ziel... Aber, und hier ist der Knackpunkt, offensichtlich reicht einem mehr oder weniger aktuellen Spiel der Speed vom PCIe Slot nicht aus! Sprich ~16GB/sec sind zu wenig auch für Texturen, wenn diese erst bei Bedarf durch diesen Flaschenhals müssen. Wäre das nicht der Fall, hätten wir in Teilen deutlich weniger Probleme mit dem VRAM Limit. Vor allem an der Stelle, wo dediziert die Texturdatenmenge für dieses Limit sorgt -> bspw. durch hochziehen der Auflösung der Texturen bei exakt gleichem Rest. Denn dann müsste HyperMemory/TurboCache den Spaß ja seit Jahren schon abfangen können. Denn wir wissen definitiv, das reine erhöhen/verkleinern der Texturdaten ändert an den FPS quasi gar nix. Es sei denn, wir laufen ins VRAM Limit.
Da dies aber so nicht aufgeht, scheint also ganz klar eine Wichtung notwendig zu sein... Und der HBCC, egal wie der Spaß am Ende nun vollends funktionieren wird, ändert ja nix am Thema PCIe Flaschenhals...

Was potentiell natürlich sein kann, dass es AMD hier gar nicht um die Texturen in dem Fall geht. Sprich der Umstand, wenn er zum Limit wird, weiterhin problematisch bleibt. Es gibt ja mehrere Arten von VRAM Limitation... Leider wird da immer (aus meiner Sicht) viel zu sehr vermischt. Im "klassischen" Ansatz heist VRAM Voll ja auch, dass der GPU im Zweifel nicht mehr genug Platz bereit steht um ihren Stuff sauber erledigen zu können. Was, unabhängig der Texturdatenmenge ein Limit bedeutet. Das dürfte, völlig ohne Zutun des Entwicklers und ohne wirklich großen Aufwand auf der Treiberseite durchaus optimierbar sein... Eben, dass immer genügend Cache bereit steht um das Ergebnis nicht mit Warten zu verlangsamen, weil man eben davor noch eine Instanz schaltet, die genau dies garantiert/garantieren kann.

Aber wenn Vega durch HBM2 teurer werden sollte als die 1080ti, der Kunde dabei aber nicht mehr Leistung bekommt dann wäre das schon ein Problem. Naja mal sehen was zur Computex kommt.

Der Preis ist ja relativ... Da für den Hersteller die Marge variabel ist, ist auch der Endpreis einfach relativ. Selbst WENN! HBM die Karte verteureren würde, könnte AMD einfach weniger Marge einstreichen und am Ende immernoch günstiger oder gleich teurer zu NV verkaufen. Die Frage ist eher, wo will man mit diesem Produkt hin?

Ja nur kann man die Shader nicht einfach so vergleichen und wenn man es schon tut welche Vergleichswerte nimmt man da? Mit welchem Takt lief z.B. eine 1080ti wenn sie die von Nvidia angegeben 11,5TF bringt? Sind es die 1582 Mhz Boostspeed oder mehr?

Worauf willst du hinaus?
In der "TFLop/sec" Angabe ist der Takt mit einer Wichtung von genau eins doch drin!?
Das heist, 11,34TFLop/sec bei NV auf der 1080TI sind exakt 1584MHz -> und das ist zeitgleich auch die Angabe zum offiziellen maximalen Boost der Karte. Real in der Praxis liegt der Takt idR drüber, im Limit möglicherweise aber auch mal drunter (Limit meint TT/PT)
Bei AMD ist das exakt gleich. Die Herstellerangaben der Leistungsfähigkeit beziehen sich auf den maximal Boost. In der Praxis liegt der Takt auch dort an oder im Limit von PT/TT auch mal drunter.

Das einzige, was an der Stelle irgendwie etwas verwerflich ist, die Hersteller runden teils abseits der eigentlich üblichen Regeln. Wenn NV aus 11,34TFlop/sec 11,5 macht ist das genau genommen falsch. Bei AMD ist dies allerdings auch nicht zwangsweise immer richtig. Auch wenn ich genau weis, das löst gleich wieder einen Shitstorm aus, idR boosten die NV GPUs üblicherweise aber über der max. Boost angabe (seit Maxwell). Während AMD bei Strich max. Boost zu macht. Effektiv jede 1080TI, egal ob Ref. oder Custom dürfte aller mindestens 1,604GHz auf der Uhr stehen haben um 11,5TFlop/sec zu erreichen... So ganz falsch ist es also dann doch wieder nicht.

Für Vega bleibt die genaue Endleistung und die Angabe bei AMD abzuwarten. Ändert man an der Vorgehensweise seit Polaris aber nix (ist dazu was bekannt???), dann wird Vega = bis zur max. Boost Angabe allein takten und drüber nur mit OC.
Allerdings halte ich persönlich die Vergleiche zur theoretischen Peak TFlop/sec Angabe für nichtssagend. Zumindest im Gamingsektor ist das eigenltich gar nix wert...
 
Wenn es so ist dass 11,5TF bei 1584 Mhz erreicht werden, dann stimmt ja meine Vermutung, dass crynis nur Mist erzählt.
Die Frage war halt ob diese Angabe so stimmt. Hast du dazu mal eine Quelle?
 
Flop/sec errechnen sich mit Takt * Ops/Takt * ALU Anzahl.
Für GPUs bedeutet das konkret, Takt in GHz * 2 (steht für Multiply-Add, was zwei Ops sind) * ALU Anzahl = GFlop/sec.
Da wir idR in TFlop/sec angeben, rechne noch durch 1000 -> der halt gleich den Takt in THz (Teraherz)
Für CPUs kommt zusätzlich noch die CPU Core Anzahl mit rein. Also ein vierter Faktor -> der bei GPUs halt einfach 1 ist bzw. bei MGPU einfach dann erhöht wird.

Quelle:
Reicht dir nen Wiki-Link zur Formel?
Floating Point Operations Per Second – Wikipedia
 
Wenn das immer nach der Formel berechnet werden kann würde sich die Diskussion über die Shaderleistung pro Takt ja komplett erübrigen da es eine Konstante wäre.
 
Check ;)
Was sich ändern kann ist eben die reale Leistung... Also das, was hinten bei rum kommt. Also die wirkliche pro Takt Performance. Simples Beispiel. GK104 als GTX 680 war zum Start leicht schneller als Tahiti als HD7970. 2-3 Jahre später hat sich das Blatt gewendet. An der TFlop/sec Angabe hat sich nix gedreht. Tahiti ist aber nunmehr trotzdem nachweislich schneller.

Und natürlich bei anderem Aufbau, also wenn der Prozessor selbst anders agiert. G80 und G200 konnten zum Beispiel MADD+MUL -> anstatt 2 wird also mit 3 gerechnet.

Die Frage ist halt, wie wichtig ist einem (zumindest bei der Gamerkarte) überhaupt ein Vergleich auf theoretischer Leistungsangabe? Mir als Endkunde ist das doch quasi wurscht. Paradebeispiel ist hier Kepler GK110. Mehr Rohleistung auf dem Papier. In der Praxis ist GM204 trotzdem schneller ;)
 
es ist doch klar, warum AMD so extrem auf HBM setzt, schaut euch mal die Roadmap an, besonders Navi... Infinity Fabric anyone ;)
 
Zuletzt bearbeitet:
Gubb3L,



das vega mit 1,6ghz als basic takt sein wird sieht du noch nicht als fakt, das du meine themen als müll bezeichnest ?

und dir ist also noch garnicht klar was das bedeutet mit vegas architektur bei über 1,6ghz basic takt und den 4096 shader ?

also wer es jetzt noch nicht verstanden hat, mit welcher architektur wir hier zu tun haben und weiter so tut wie du, mit von wegen alles müll und belegen usw hat ein echtes problem mit sein verstand.

ansonsten junge, junge, muss von euren technikwissen wegen euren kurzsichtigkeit richtig schmunzeln :haha:
 
Gubb3L,

das vega mit 1,6ghz als basic takt sein wird sieht du noch nicht als fakt, das du meine themen als müll bezeichnest ?

und dir ist also noch garnicht klar was das bedeutet mit vegas architektur bei über 1,6ghz basic takt und den 4096 shader ?

also wer es jetzt noch nicht verstanden hat, mit welcher architektur wir hier zu tun haben und weiter so tut wie du, mit von wegen alles müll und belegen usw hat ein echtes problem mit sein verstand.

ansonsten junge, junge, muss von euren technikwissen wegen euren kurzsichtigkeit richtig schmunzeln :haha:


:rofl::rofl::rofl::rofl:
Das soll jetzt ein Scherz sein oder? Du hast es nicht mal geschafft meine Aussage zu verstehen und dann kommt hier so was.
Wenn man keine Argumente hat diffamiert man halt einfach den Gegenüber. Mach dich ruhig weiter lächerlich.
 
Zuletzt bearbeitet:
Wenn das immer nach der Formel berechnet werden kann würde sich die Diskussion über die Shaderleistung pro Takt ja komplett erübrigen da es eine Konstante wäre.
Wie fdsonne schon geschrieben hat, kommt es vor allem drauf an, dass die auch genutzt wird. Je mehr Shader nichts tun, desto sinnloser sind viele TFLOPS. Größere AMD-Karten hatten besonders seit der R9 290-Serie augenscheinlich ziemlich große Probleme, die Shader auszulasten(abgesehen von OpenCL usw.). Das hat Nvidia - wahrscheinlich wegen der Tile Based Rasterization - deutlich besser hinbekommen. Bei der Fury-Serie hat es dann dem ganzen die Krone aufgesetzt, weil die ganze Karte voll in die Hose ging und zu dem Grundproblem noch intern weitere Schwierigkeiten hatte. Dazu kam dann mit der Zeit der knappe VRAM mit 4GiB als weiteres Limit dazu. Nur in ausgewählten Vulkan-Spielen bringt die Karte ihre Leistung, ist ansonsten teilweise nur minimal schneller als eine 390X. Das soll nicht bedeuten, dass sie nicht zu einem entsprechenden Preis auch ganz ordentlich war. Sie hat halt extrem viel Potenzial verschenkt.

Das wird ziemlich sicher mit Vega anders laufen. Statt auf viele Shader setzt man auf mehr Takt, und hat fast die gleichen Größenverhältnisse, die auch Nvidia bei seinen Karten hat. Zudem wurde an der Auslastung gearbeitet, nicht nur mit TBR, das höchstwahrscheinlich bei Vega dann auch zum Programm gehört. Folglich kann man davon ausgehen, dass die FLOPS der AMD Vega ziemlich gleich viel aussagen werden, wie aktuell bei Nvidia. Im Grunde ist der Chip den aktuellen Informationen nach zu urteilen technisch im ganz groben betrachtet, kaum anders als eine minimal größere Version der Titan Xp, nur dass HBM2 benutzt wird und FP16 mit doppelter Geschwindigkeit berechnet werden kann. Wenn man davon absieht, dass natürlich AMD und Nvidia verschiedene Dinge jeweils unterschiedlich lösen. Deshalb gehe ich persönlich davon aus, dass AMD nicht mehr auf Vulkan angewiesen sein wird, damit die Karte mit den Nvidia-Pendants(mit gleich vielen Shadern) in alten APIs mithalten kann, höchstens wenn es in Zonen von über 200 FPS geht, die dann aber dem Zocker auch nichts mehr bringen. Ich bin mir trotzdem sicher, dass beide Hersteller vor allem mit den größeren Modellen mit über 2.000 Shadern von Low-Level-APIs profitieren. Deshalb hat auch Nvidia Vulkan mitgetragen - der Zeitraum, in dem sie durch die schlechtere Auslastung bei AMD Vorteile hatten, solange die alten APIs benutzt wurden, ist ja nicht unendlich und es war klar, dass auch Nvidia irgendwann mehr Shader bringen muss, die mit herkömmlichen Methoden - selbst wenn man den "Joker" TBR zieht - schwer auszulasten sind.
 
Zuletzt bearbeitet:
@oooverclocker
Schöne Antwort. Viele der Punkte habe ich auch schon so gesehen und bin allgemein Vega gegenüber positiv gestimmt. Ob AMD wirklich auf eine ähnliche Ausbeute aus der verfügbaren Rohleistung kommt wie Nvidia müssen wir noch sehen. Ich hoffe es doch damit das Problem endlich mal zu den Akten gelegt werden kann.
Interessant wird auch nochmal das Duell mit Volta. AMD hat ja laut Gerüchten einen noch größeren "Monster" Vega Chip in der Hinterhand. Insofern die Auslastung der Shader bei Vega vernünftig skaliert wäre das zukunftsweisend.


@crynis
Guck dir mal den Kommentar von oooverclocker an. So sehen Diskussionen aus und nicht das stumpfe Gelaber von dir.
 
Zuletzt bearbeitet:
@Gubb3L
Ich meine die Vega "Shader" sind nochmal effizenter als die von Polaris.
So gesehen ist Polaris nur Mainstream, kommt aber trotzdem an meine alte Tahiti (High-End) ran in dem einen oder anderen Spiel.
Also 1:1 von Polaris auf Vega zu skalieren, wäre zu wenig. ;)
 
Ich habe auch nicht 1:1 von Vega auf Polaris skaliert. Ich habe gesagt, dass wenn Vega schneller als die 1080ti sein will die ganze Architektur im Vergleich zu Polaris 23% effektiver seine Leistung auf den Boden bringen muss.
 
Ich habe auch nicht 1:1 von Vega auf Polaris skaliert. Ich habe gesagt, dass wenn Vega schneller als die 1080ti sein will die ganze Architektur im Vergleich zu Polaris 23% effektiver seine Leistung auf den Boden bringen muss.
Lass mich doch auch mal Tiefstapeln! ;)
23% wären 1:1,23 das klingt m.M.n. realistisch.
An den API´s soll es nicht liegen, da gibt es ja inzwischen genug, wo sich die Entwickler austoben können. (DriectX12, Vulkan, openCL, openGPU...dx11)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh