Reddit AMA: Vega auf der Computex ausgestellt und 16 GB HBM2 auch für Spieler möglich

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
amd-vega-logo.jpg
Auf dem 2017 Financial Analyst Day präsentierte AMD erstmals eine fertige Grafikkarte mit Vega-GPU, sieht die Radeon Vega Frontier Edition mit 16 GB HBM2 für Ende Juni und ausschließlich für das professionelle Segment vor. Damit wurden zumindest einige Fragen rund um Vega beantwortet, wenngleich viele sicherlich gerne mehr über das Endkunden-Produkt in Form der Radeon RX Vega gesehen hätten. Einige Fragen blieben demnach offen und auch im Zusammenhang mit der Radeon Vega Frontier Edition, den gezeigten Demos sowie in einigen technischen...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich könnte mir fast vorstellen, dass folgendes passiert auf der Computex:

"More Details will follow in in the xx.xx.xxxx"

Und dann warten alle bis zum Datum X..

Ich drücke aber beide Daumen, dass dieses sehr realistische Szenario so nicht eintritt.
 
Sollten sie es so machen, dann gute nacht.
Ich hoffe auf leistungswerte und Preis und ein release in xy wochen

Aber wenn sie erst mal sehen werden wie der bedarf nach 16 gb karten ist, heißt es ja dass vorerst 8 GB das maximum darstellen.
 
Wirklich hübsch die Karte ........ nicht :)

Wenn für Spielen "mögliche" wäre ja ein bench ganz nett gewesen, nur um grob die Richtung zu sehen.
 
Also "nur" 8GB bei den kommenden Top Modellen kann sich AMD eigentlich gar nicht leisten.
Sie sind mit ihren Produkten nun schon so weit hinten dran und NVidia bietet nunmal auch 11GB bei der 1080Ti.
Wenn man mit Vega auch im Consumer Segment auf VR usw. abzielt, dann kann man da nicht mehr nur mit 8GB kommen.
Und das weiß AMD wohl auch und genau deshalb wird sich das Ganze auch so ewig hinziehen. Es gibt einfach nicht genug entsprechenden HBM2 Speicher.
Wobei es ja eigentlich kein Problem sein sollte, für die kleineren Karten, die dann nur mit 8GB Speicher kommen, einfach den deutlich besser verfügbaren 4GB/Chip HBM2 Speicher zu nehmen.
 
Sie können es sich leisten, wenn ihr Speichermanagement besser ist. Daher betont AMD dieses Thema, also den High Bandwidth Memory Controller ja so sehr. Ob das auch wirklich in der Praxis so funktioniert, wird sich zeigen müssen.
 
16 GB --> 4k
8GB --> 2560x1440p/1600p

Es stehen Sachen wie HDR ins Haus, welcher der Bandbreite gehörig einheizen. Wer 144 Hz auf 4k mit HDR zocken will, dem werden auch 16 GB nicht helfen. Nehmen wir das 4k aus der Rechnung raus, reichen auch 8 GB.
 
Sie können es sich leisten, wenn ihr Speichermanagement besser ist.

Das interessiert den gemeinen Gamer, der oftmals eh keine Ahnung von der Funktionsweise der Hardware hat, aber nicht wirklich. Der sieht lediglich die Zahl, die da auf der Verpackung prangt und macht daran dann seine Kaufentscheidung fest.
Das mag sicherlich auf die hier vertretenen User nicht zutreffen, aber wenn man sich mal in den Foren/Kommentarbereichen diverser Spielewebseiten wie PC Games, Gamestar, 4Players usw. umschaut, dann stößt man schnell und häufig auf die Meinung, dass eine Vega Karte mit "nur" 8GB Speicher nicht konkurrenzfähig zu einer GTX1080Ti oder Titan wäre.

Und so ganz unrecht haben die Leute mit dieser Ansicht auch nicht.
Man braucht sich ja nur mal den Vergleich GTX1060 3GB vs. RX470 4GB anzuschauen. Trotz der nominell schwächeren GPU Leistung und des schlechteren Speichermanagements der AMD Karte, hat diese in einigen Titeln deutlich die Nase vor der NVidia Lösung, weil dieser schon in FullHD einfach der Speicher ausgeht.
Und da sprechen wir hier von nur 1GB Unterschied, der schon zwischen Wohl und Wehe den Unterschied macht.
Wenn also von einer Anwendung tatsächlich entsprechend viel Speicher gebraucht wird, dann macht man fehlenden Speicher auch mit dem besten Speichermanagement und der schnellsten Speicheranbindung nicht vollständig wett.
 
Zuletzt bearbeitet:
Sie können es sich leisten, wenn ihr Speichermanagement besser ist. Daher betont AMD dieses Thema, also den High Bandwidth Memory Controller ja so sehr. Ob das auch wirklich in der Praxis so funktioniert, wird sich zeigen müssen.

das haben sie auch schon bei Fiji immer behauptet das 4GB HBM locker reichen da man das mit besserer Komprimierung und gutem Speichermanangement ausgleichen kann - das klappte genau solange einigermassen, solange Amd wirklich jedes Spiel in den Treibern dahingenhend optimiert hat nun wo das langsam wegfällt sehen wir ja was passiert es reicht hinten und vorne nicht in 4K.

ich bleibe skeptisch auch wenn es mit dem HBMC da mittlerweile neue Technologie gibt - das Vertrauen müßen sie erst wieder zurückgewinnen ohne ausführliche Tests auch mit alten Games wo die Treiber wohl sicher nicht mehr noch dahingehend optimiert werden - vorher glaub ich da erstmal gar nix als gebranntes Kind...
 
Zuletzt bearbeitet:
das haben sie auch schon bei Fiji immer behauptet das 4GB HBM locker reichen da man das mit besserer Komprimierung und gutem Speichermanangement ausgleichen kann - das klappte genau solange einigermassen, solange Amd wirklich jedes Spiel in den Treibern dahingenhend optimiert hat nun wo das langsam wegfällt sehen wir ja was passiert es reicht hinten und vorne nicht in 4K.

ich bleibe skeptisch auch wenn es mit dem HBMC da mittlerweile neue Technologie gibt - das Vertrauen müßen sie erst wieder zurückgewinnen ohne ausführliche Tests auch mit alten Games wo die Treiber wohl sicher nicht mehr noch dahingehend optimiert werden - vorher glaub ich da erstmal gar nix als gebranntes Kind...

Es kommt halt auch immer auf die Anwendung an....

Wenn ich an die letzten Spiele denke, Shadow Warrior 2 und Doom liefen beide in etwa gleich gut 90hz@1440p auf meiner r290 aber optisch war doom einfach um welten besser was die texturen und polygone anging.
 
16 GB --> 4k
8GB --> 2560x1440p/1600p

Es stehen Sachen wie HDR ins Haus, welcher der Bandbreite gehörig einheizen. Wer 144 Hz auf 4k mit HDR zocken will, dem werden auch 16 GB nicht helfen. Nehmen wir das 4k aus der Rechnung raus, reichen auch 8 GB.

Hertz Rate hat ja nun gar keinen Einfluß und auch die Auflösung skaliert eher wenig. Wie weit die 8GB reichen hängt an den Entwicklern. Die optische Qualität passt meist irgendwie nicht zum Verbrauch und dann sind da ja noch solche Vollpfosten-Ideen wie unkomprimierte Texturen in Ultra Einstellungen. Aus Richtung der Konsolen ist auch wenig zu erwarten. Unterm Strich sind die 8GB zwar unschön dürften aber reichen. HBCC muss sich jenseits konstruierter Cherry picks erst mal beweisen.
 
Also "nur" 8GB bei den kommenden Top Modellen kann sich AMD eigentlich gar nicht leisten.
Sie sind mit ihren Produkten nun schon so weit hinten dran und NVidia bietet nunmal auch 11GB bei der 1080Ti.
Wenn man mit Vega auch im Consumer Segment auf VR usw. abzielt, dann kann man da nicht mehr nur mit 8GB kommen.
Und das weiß AMD wohl auch und genau deshalb wird sich das Ganze auch so ewig hinziehen. Es gibt einfach nicht genug entsprechenden HBM2 Speicher.
Wobei es ja eigentlich kein Problem sein sollte, für die kleineren Karten, die dann nur mit 8GB Speicher kommen, einfach den deutlich besser verfügbaren 4GB/Chip HBM2 Speicher zu nehmen.

Das kommt darauf an welches Segment man anpeilt. Bei der 1070 / 80 sind 8 GB optimal. Für die 1080 Ti wären 16 GB besser, in dem Fall hätte Vega sogar einen Vorzug über Nvidia. Nur die Leistung muss stimmen.

Sie können es sich leisten, wenn ihr Speichermanagement besser ist. Daher betont AMD dieses Thema, also den High Bandwidth Memory Controller ja so sehr. Ob das auch wirklich in der Praxis so funktioniert, wird sich zeigen müssen.

Vermutlich nicht, das war auch bei der Fury nicht der Fall.

16 GB --> 4k
8GB --> 2560x1440p/1600p

Es stehen Sachen wie HDR ins Haus, welcher der Bandbreite gehörig einheizen. Wer 144 Hz auf 4k mit HDR zocken will, dem werden auch 16 GB nicht helfen. Nehmen wir das 4k aus der Rechnung raus, reichen auch 8 GB.

Für gewöhnliches 4K reichen auch 8 GB, sie sind nur knapper. Bei 16 GB hätte man eine Menge Luft.
 
Das kommt darauf an welches Segment man anpeilt. Bei der 1070 / 80 sind 8 GB optimal. Für die 1080 Ti wären 16 GB besser, in dem Fall hätte Vega sogar einen Vorzug über Nvidia.
Das kann man auch anders sehen :) Für die 1080 würde ich 12 GiB für besser halten, bei der 1070 finde ich 8GiB knapp aber noch im Rahmen(10 fände ich passender). dem Rest stimme ich zu.

Edit: Wichtig ist für mich vor allem, die Gewissheit zu haben, dass AMD 16 GiB nicht ausschließlich auf Profi-Karten beschränkt, sondern diese zumindest auch für den Mainstream in Betracht zieht.
 
Zuletzt bearbeitet:
unmengen an vram zu verbauen bringt nicht so sehr viel, wenn die gpu dann zu lahm für die settings ist, in denen so viel vram nötig werden.
Für Konsumenten ist aber mehr VRAM gut. Dann können die Entwickler höher aufgelöste Texturen kreieren, ohne Angst zu haben, dass ein wütender Mob mit GTX 970 nach ihnen wirft ;). Und das erhöht die Grafikqualität erheblich, ohne überhaupt GPU-Leistung zu kosten. Aktuell kann man über 8 GiB VRAM oft nur mit Supersampling auf 4K oder gar 5 - 8K überlasten, sodass man auch einiges an Rechenpower braucht, die dann ja auch fast linear mitskaliert. Einfach, weil es keine so guten Texturen gibt, die den VRAM selbst schon stark nutzen können. Wenn man aber auf ein paar Effekte verzichten kann, könnte man aus 16GiB VRAM extrem scharfe und detaillierte Welten zaubern, ohne viel Rechenleistung zu brauchen. Aber natürlich ist es für Nvidia oder AMD schlecht, einfach mit günstigem VRAM um sich zu werfen, während die GPU-Leistung noch niedrig bleibt. Denn dann würde man durch bessere GPUs kaum noch Unterschiede merken - schließlich könnte man ja bereits in hoher Auflösung mit maximaler Texturqualität zocken und das Bild würde sich fast nur noch durch qualitativ verschiedene Shader-Effekte unterscheiden.
 
Zuletzt bearbeitet:
Für Konsumenten ist aber mehr VRAM gut. Dann können die Entwickler höher aufgelöste Texturen kreieren, ohne Angst zu haben, dass ein wütender Mob mit GTX 970 nach ihnen wirft ;). Und das erhöht die Grafikqualität erheblich, ohne überhaupt GPU-Leistung zu kosten. ...
Wenn man aber auf ein paar Effekte verzichten kann, könnte man aus 16GiB VRAM extrem scharfe und detaillierte Welten zaubern, ohne viel Rechenleistung zu brauchen.

Was diverse Modder ja in Spielen wie Skyrim usw. bereits ausgiebig bewiesen haben. Leider hat Skyrim ja gewisse Probleme mit der Speichernutzung, weshalb man das Thema da leider nicht so richtig auf die Spitze treiben kann.
 
Das interessiert den gemeinen Gamer, der oftmals eh keine Ahnung von der Funktionsweise der Hardware hat, aber nicht wirklich. Der sieht lediglich die Zahl, die da auf der Verpackung prangt und macht daran dann seine Kaufentscheidung fest.
Das mag sicherlich auf die hier vertretenen User nicht zutreffen, aber wenn man sich mal in den Foren/Kommentarbereichen diverser Spielewebseiten wie PC Games, Gamestar, 4Players usw. umschaut, dann stößt man schnell und häufig auf die Meinung, dass eine Vega Karte mit "nur" 8GB Speicher nicht konkurrenzfähig zu einer GTX1080Ti oder Titan wäre.

Und so ganz unrecht haben die Leute mit dieser Ansicht auch nicht.
Man braucht sich ja nur mal den Vergleich GTX1060 3GB vs. RX470 4GB anzuschauen. Trotz der nominell schwächeren GPU Leistung und des schlechteren Speichermanagements der AMD Karte, hat diese in einigen Titeln deutlich die Nase vor der NVidia Lösung, weil dieser schon in FullHD einfach der Speicher ausgeht.
Und da sprechen wir hier von nur 1GB Unterschied, der schon zwischen Wohl und Wehe den Unterschied macht.
Wenn also von einer Anwendung tatsächlich entsprechend viel Speicher gebraucht wird, dann macht man fehlenden Speicher auch mit dem besten Speichermanagement und der schnellsten Speicheranbindung nicht vollständig wett.

Klar für LowEnd und Midrange ist das sicherlich so. Aber wir reden hier von einem Preisgefüge von sagen wir mal 500Euro+. Ich denke schon, dass dort ein wenig mehr Know how vorhanden ist. Zumindest hoffe ich das für den Käufer*g* Auch wenn er jetzt halt doch nicht so die Ahnung hat, wird er entweder von Reviews/Balken beeinflusst, also schon mal eher auf AMD oder nVidia gehen. Wer sich also ein paar Reviews reinzieht, der wird hoffentlich in der Lage sein, sich auch noch ein paar Fakten zu den verschiedenen Grakkas zu merken. Kann aber auch sein, dass das ein wenig sehr optimistisch ist(von meiner Seite her), für die Leute die heute so auf der Erde rumwandern:-)
 
Zuletzt bearbeitet:
riecht für mich danach, dass AMD wieder über massig viel Speicher punkten will. weil sonst nix großes is. sonst würden sie echte benches zeigen, kein cherrypicking. aber ich kann iren und hoffe sehr, dass ich da irre.
 
Wäre ja top 16GB HBM dann wirds sicher ein Vega crossfire werden.
4K dürfte dann richtig rocken. Ich spiel eh nur games bei denen crossfire auch funzt.
 
Wäre ja top 16GB HBM dann wirds sicher ein Vega crossfire werden.
4K dürfte dann richtig rocken. Ich spiel eh nur games bei denen crossfire auch funzt.
HBM2 ;)
Bei der Bandbreite brauchst auch ein großes Volumen, bringt ja nichts wenn der VRAM in 0,1 ns leer gelesen wurde und nachgeladen werden muß.
Dann aber schnell die 1TByte M.2 Schnittstelle auf das GPU PCB schnallen. :xmas:
 
Hertz Rate hat ja nun gar keinen Einfluß und auch die Auflösung skaliert eher wenig. Wie weit die 8GB reichen hängt an den Entwicklern. Die optische Qualität passt meist irgendwie nicht zum Verbrauch und dann sind da ja noch solche Vollpfosten-Ideen wie unkomprimierte Texturen in Ultra Einstellungen. Aus Richtung der Konsolen ist auch wenig zu erwarten. Unterm Strich sind die 8GB zwar unschön dürften aber reichen. HBCC muss sich jenseits konstruierter Cherry picks erst mal beweisen.

Noch einmal:

Bei 144 Hz, 4k und HDR kommst du in das Limit der aktuellen Übertragungsstandards. Dort ist es dann egal ob du 8 GB oder 16 oder 32 GB VRam hast, HDMI/DP können die Bandbreite schlichtweg nicht mehr bereitstellen. Weichst du einen dieser Faktoren auf, so dass du wieder innerhalb des Bandbreitenlimits bist (wie zum Beispiel von 4k auf 2k), dann reichen auch 8 GB wieder aus.

Natürlich hängt es auch davon ab, wie effizient die Spielehersteller die Speichernutzung implementieren. Es wird dort sicherlich Unterschiede geben, wie viel Vram du für deine aktuelle Pixelmasse zum rendern benötigst, vom reinen Bandbreitenlimit hingegen sollten 8 GB kaum ein Problem darstellen. Fälle, in denen 16 GB wirklich notwendig werden, wären dann recht grenzwertig und reiten an der roten Linie des machbaren, was sowohl Bandbreite angeht, als auch das individuelle Setup, welches gerade ausgereizt wird.

Was ich von diversen Benchmarks auf diversen Review-Seiten sehe, ist dass kaum eine GPU (selbst die 1080 TI) es schafft, auf 4k effektiv 144 Hz darzustellen. Gut optimierte und neuere Spiele wie Witcher 3, Doom oder auch Overwatch landen hier im Bereich von 60-80 FPS. Bis du hier die 144 Hz erreichst, benötigt die GPU rund das Doppelte an Rechenpower - was in absehbarer Zeit nicht kommen wird. Bei 4k ist es also sinnvoller 60 FPS anzupeilen und somit liegen wir wieder innerhalb des aktuellen Limits, wo dann eventuell auch wieder die Größe des VRams interessanter wird.
 
Zuletzt bearbeitet:
Derzeit ist mMn. der beste Kompromiss, 1440p @144hz.
Gibt eh kaum (vor allem keine bezahlbaren) 4K @144hz Monitore geschweige denn GPUs die das stemmen.
 
Kommt halt auch wieder darauf an, was man so zockt. Mein Schwerpunkt liegt im RPG- und Rennspiele-Bereich, da sind 144Hz uninteressant. Deshalb hier eben 4k@60Hz. Bei Shootern sieht das natürlich ganz anders aus.
 
Das interessiert den gemeinen Gamer, der oftmals eh keine Ahnung von der Funktionsweise der Hardware hat, aber nicht wirklich. Der sieht lediglich die Zahl, die da auf der Verpackung prangt und macht daran dann seine Kaufentscheidung fest.
Ganz ehrlich, ich kenne keinen, der bei einem Kauf nichts über die Hardware weiss, aber auf die GB Zahl schaut. Entweder die Leute haben wenig Ahnung, dann entscheidet der Preis. Oder die Leute haben zumindest ein bisschen Ahnung, dann entscheiden sie nach Benchmarks. Die GB Zahl ist nun wirklich alles andere als entscheidend. Wie Don schon richtig sagt, die 11 GB GDDR5X der GTX 1080 Ti und 8 GB HBM2 von Vega kann man kaum vergleichen, da die Architekturen und speziell die Speicheranbindung unterschiedlich sind. AMD hat ja schon mehrmals gezeigt, dass der HBCC speicherlimitierte Szenen gut kompensieren und gerade die min FPS deutlich höher ausfallen. Also wartet doch erstmal Tests ab und vorverurteilt nicht immer gleich alles.


Für Konsumenten ist aber mehr VRAM gut. Dann können die Entwickler höher aufgelöste Texturen kreieren, ohne Angst zu haben, dass ein wütender Mob mit GTX 970 nach ihnen wirft ;).
High-End Produkte haben aber wenig Einfluss auf Spielentwickler. Die orientieren sich immer noch am Mainstream. Und da findest du nicht mehr als 8 GB heutzutage. Und ich denke mal, das wird auch noch mindestens 2 Jährchen so bleiben. GDDR6 kommt nächstes Jahr, was zu Beginn nicht preiswert sein wird. Da werden sich Hersteller hüten, mehr als notwendig zu verbauen. Und low cost HBM wird sicherlich auch noch ein Stückchen brauchen, bis es marktreif und breit verfügbar ist.


Irgendwie verlieren hier die Leute den Fokus, einfach mal richtig zuzuhören :)
Oder sich überhaupt mal richtig zu informieren. ;)
 
naja was heisst richtig informieren - man kann nur das mitnehmen was von Amd kommt und das klingt erstmal alles recht vielversprechend - das klang es aber vor 2 Jahren bei Fiji auch - auch damals gab es Folien und Aussagen von Amd die belegten das 4GB HBM in allen Lebenslagen und vor allem auch für 4K locker reichen und heute betitelt Koduri selbst beim FAD die Karte als mehr oder minder Fehlkonstruktion.

ja hbmc und hbcc klingen toll wenn alles so funktioniert wie von Amd gesagt - aber bevor sich das nicht in ausgiebigen udn unabhängigen Tests bewiesen hat, bleibe ich vorsichtig...
 
4096shader@ ca 1,6ghz bis zu 16gb ram das klingt erst mal recht gut. Was dabei rauskommt wird man sehen.
Mehr weis bisher niemand anscheinenbd geht hier einigen der bammel das ihre sau teure NV karte alt aussehen könnte.
 
Noch einmal:

Bei 144 Hz, 4k und HDR kommst du in das Limit der aktuellen Übertragungsstandards. Dort ist es dann egal ob du 8 GB oder 16 oder 32 GB VRam hast, HDMI/DP können die Bandbreite schlichtweg nicht mehr bereitstellen. Weichst du einen dieser Faktoren auf, so dass du wieder innerhalb des Bandbreitenlimits bist (wie zum Beispiel von 4k auf 2k), dann reichen auch 8 GB wieder aus.

Natürlich hängt es auch davon ab, wie effizient die Spielehersteller die Speichernutzung implementieren. Es wird dort sicherlich Unterschiede geben, wie viel Vram du für deine aktuelle Pixelmasse zum rendern benötigst, vom reinen Bandbreitenlimit hingegen sollten 8 GB kaum ein Problem darstellen. Fälle, in denen 16 GB wirklich notwendig werden, wären dann recht grenzwertig und reiten an der roten Linie des machbaren, was sowohl Bandbreite angeht, als auch das individuelle Setup, welches gerade ausgereizt wird.

Was ich von diversen Benchmarks auf diversen Review-Seiten sehe, ist dass kaum eine GPU (selbst die 1080 TI) es schafft, auf 4k effektiv 144 Hz darzustellen. Gut optimierte und neuere Spiele wie Witcher 3, Doom oder auch Overwatch landen hier im Bereich von 60-80 FPS. Bis du hier die 144 Hz erreichst, benötigt die GPU rund das Doppelte an Rechenpower - was in absehbarer Zeit nicht kommen wird. Bei 4k ist es also sinnvoller 60 FPS anzupeilen und somit liegen wir wieder innerhalb des aktuellen Limits, wo dann eventuell auch wieder die Größe des VRams interessanter wird.

Was zum Teufel hat die Speicherbandbreite mit HDMI/DP gemein?! Das ist eine ganz andere Baustelle und schon Polaris hat DP1.4. Die Auflösung, den Speicherverbrauch, die benötigte Rechenleistung und letztendlich der erreichten Frequenz sind alle unabhängige Variablen. Texturen benötigen zum Beispiel fast keine Leistung aber der Speicher kann bist zur Unendlichkeit gefüllt werden. Eine Rote Linie existiert nur in deinem Kopf. Was wir in Spielen sehen ist die Entscheidung der Entwickler. Wo soll überhaupt das Problem eines 144Hz Monis an einer TI mit "nur" 80 fps sein, solange der Sync hat?!? Die meisten Spiele profitieren nicht mal von der hohen Rate. Für die Randgruppe Multiplayershooter tun es dann euch deutlich reduzierte Grafikeinstellung - schon weil diese einen massiven Vorteil für den Spieler bringen. Weniger Effektebullshit ist mehr freie Sicht und damit mehr kills.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh