AMD bestätigt Radeon RX Vega als Namen für die nächste GPU-Generation

oooverclocker

Semiprofi
Thread Starter
Mitglied seit
29.08.2012
Beiträge
5.610
In Deus Ex: Mankind Devided wird der HBCC ausgeschaltet und dies resultierte in 50 % niedrigeren Frames und die Min-FPS verdoppelten sich.
Laut dem Bild, steigt mit HBCC die durchschnittliche Framerate um über 50%, die Minimum FPS um über 100%. Folglich müssten sich die Min-FPS bei ausgeschaltetem HBCC halbieren.

Die Zuteilung des Speichers durch den HBCC macht es möglich, dass nur noch 2 GB benötigt werden.
Das ist besonders bemerkenswert, denn es wäre das erste Mal, dass AMD beweist, dass der Controller tatsächlich in der Lage ist, in einem realen Szenario nur den halben VRAM- Verbrauch zu erzeugen. Wenn das bei anderen Spielen in ähnlichem Rahmen möglich ist, wäre zum einen die Speicherbandbreite mit nur 2 HBM2- Stacks kein problem, aber auch 8GiB VRAM wären vergleichbar mit deutlich mehr Kapazität - tendenziell mit bis zu 16GiB bei Karten ohne HBCC. Da muss man noch reale Werte aus mehr Titeln abwarten.

Es hört sich aber bereits extrem gut an, denn Limitierungen des Speicherinterfaces drücken immer die Minimum- FPS und trotz nur 2 HBM2- Stacks scheint die Technik eventuell in der Lage zu sein, den potent wirkenden Chip vollständig aus dem Limit zu bewegen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
bemerkenswert, denn es wäre das erste Mal, dass AMD beweist, dass der Controller tatsächlich in der Lage ist, in einem realen Szenario nur den halben VRAM- Verbrauch zu erzeugen. Wenn das bei anderen Spielen in ähnlichem Rahmen möglich ist, wäre zum einen die Speicherbandbreite mit nur 2 HBM2- Stacks kein problem, aber auch 8GiB VRAM wären vergleichbar mit deutlich mehr Kapazität - tendenziell mit bis zu 16GiB bei Karten ohne HBCC. Da muss man noch reale Werte aus mehr Titeln abwarten.

Es hört sich aber bereits extrem gut an, denn Limitierungen des Speicherinterfaces drücken immer die Minimum- FPS und trotz nur 2 HBM2- Stacks scheint die Technik eventuell in der Lage zu sein, den potent wirkenden Chip vollständig aus dem Limit zu bewegen.

Die Frage ist eher, was für "magic stuff" macht der HBCC??
Denn das was dort gezeigt wurde kann zweideutig sein... Er spricht davon, das man 100% von dem bekommt, was man bezahlt und er spricht davon, dass die Games heute irgendwo von 25-50% des Speichers belegen... Ebenso der Part mit der Vorrausplanung für den Titel in Sachen Speichermenge auf den Markt von Hardware geht in diese Richtung.
Das was man mit DeusEX dort zeigt wäre aber das genaue Gegenteil davon.
Wenn DeusEX mit 4GB gut läuft, man dort aber auf 2GB limitiert, wo ist dann der Rest?? Und was soll uns das nun sagen? Das mit einem künstlichen 2GB Limit 6GB vom Speicher als schweine schneller Cache genutzt werden können wohingegen ohne Cache der Spaß über den lahmen PCIe Slot kommt?? Wäre zwar eine interessante Vorstellung aber in der Praxis nirgends anzutreffen... Oder das es eine massiv gesteigerte Effizienz im VRAM Management geben wird??

Irgendwie ist das arg zweideutig, denn es bleibt ja weiterhin im Hinterkopf, die absolute Speichermenge von Vega wird vorerst wohl auf 8GB begrenzt. Eine Technik die effizienter mit dieser Menge umgeht wäre also mindestens mal nicht verkehrt um ggü. der Konkurenz nicht perse Nachteile zu haben. (Fiji krankt heute ja doch schon am mauen Ausbau)
Andererseits wäre eine effizientere Nutzung in Sachen absoluter Menge aber ein Widerspruch ggü. der Aussage mit man bekommt 100% von dem, was man zahlt und nicht nur 50% oder 25%... Oder meint er damit was ganz anderes?
Letzteres wäre bspw. möglich freien VRAM einfach als Cache zu nutzen... und das soweit, dass der Füllstand quasi immer annähernd 100% beträgt. Nur wo soll da ein FPS Vorteil herkommen?

So recht klar was der HBCC nun dort genau macht ist das irgendwie nicht... Von Luftnummer bis bahnbrechende Neuerung kann das alles sein.
Rein vom Prinzip her wäre eine massiv gesteigerte Effizienz bei der benötigen Menge durchaus möglich. Man sollte aber defakto vorsichtig sein mit Prognosen was dort kompensierbar wäre (aka 8GB sind wie 16GB und solchem quatsch)
Denn das Prinzip basiert (ausgehend der Folien aus der Tech-Konferenz oder was das war), darauf den Füllstand bis aufs Frame runterzubrechen und möglichst nur das zu belegen, was im Frame auch notwendig ist -> um so wichtiger ist dann aber der Speed mit dem die Daten nachgeladen werden. Und hier limitiert PCIe ganz klar... Bei Szenen, die in einem Rutsch zu viele neue Daten benötigen, wäre dann auch mal ein Nachteil möglich.


Interessant dabei war übrigens noch der Satz, wir haben das auf Vega in unseren Treibern ;) könnte also gar sein, dass HBCC ggf. sogar für ältere GPUs nutzbar ist, zumindest der Part mit der möglichen Mengeneffizienz, was ziemlich sicher rein Softwarebasiert ist...
 
Dass HMB was bringt, zeigt auch die alte Fury (X) bei neueren Spielen:
Sie qualifiziert sich als einzige Karte mit 4GiB VRAM in höheren Gefilden.
Die Speichertechnik ist der Zeit vorraus :)

hlw24kx8uep.png
 
Zuletzt bearbeitet:
Eigentlich zeigt das nur dass du dich gut aufs Cherry Picking verstehst.
 
Soll Vega jetzt langsamer werden als Fury?

Es zeigt das Potential von HBM (siehe GTX 980 mit ebenfalls 4GiB)

- - - Updated - - -

Ein Blick auf die min Frames in Sniper Elite 4 was Raja gesagt hat.

Fury X mit 4GiB hat 10% mehr min FpS als die GTX 1070 mit 8GiB und neuerer Architektur.

snel44k55s70.png
 
Zuletzt bearbeitet:
Naja, bei deinem Beispiel liegt die Fury knapp hinter der GTX 980 und bei einem Beispiel von mir deklassiert die Fury X die GTX 980.
Das ist der feine Unterschied.
 
Ja, beachtlich!
AMDs schnellste und teuerste 4096 Shader GPU schlägt die 2048er GTX 980 von 2014.
Fakt ist:
Wenn den Karten der Speicher ausgeht, hilft auch HBM nix.
Deshalb krebst die Fury X in den von mir verlinkten Benchmarks auf exakt dem gleichen Niveau herum wie die GTX 980.
Und die hat gerade mal lächerliche 224Gb/s
 
Zuletzt bearbeitet:

Besonders auffällig: Wie die 3-GB-Karten bei 4K abfallen. Die 980 und Fury sind mit 4 GB nahe dran.

Naja, bei deinem Beispiel liegt die Fury knapp hinter der GTX 980 und bei einem Beispiel von mir deklassiert die Fury X die GTX 980.
Das ist der feine Unterschied.

Bekommst du eigentlich eine Bezahlung von AMD dass die ihre Fury-Bestände loswerden oder woher kommt deine Affinität? Ich kann es mir kaum erklären... Die Fury ist schrott, sie verbraucht viel zu viel Strom, lässt sich mit Glück um maximal 50 MHz übertakten und hat dazu noch einen winzigen Speicher. Es ergibt absolut keinen Sinn sowas in 2017 noch für 300 € zu kaufen wenn AMD selbst schon bessere und effizientere Modelle mit mehr Speicher zu geringerem Preis anbietet.

Ja, beachtlich!
AMDs schnellste und teuerste 4096 Shader GPU schlägt die 2048er GTX 980 von 2014.
Fakt ist:
Wenn den Karten der Speicher ausgeht, hilft auch HBM nix.
Deshalb krebst die Fury X in den von mir verlinkten Benchmarks auf exakt dem gleichen Niveau herum wie die GTX 980.
Und die hat gerade mal lächerliche 224Gb/s

Nvidias Shader sind denen von AMD überlegen. Die Fury ist aber ohnehin veraltet. Vega wird sich vermutlich im Bereich der 1080 einordnen, die 8 GB passen da sehr gut und sind auch ordentlicher bemessen als die 4 GB der Fury.

Der größte Witz an der Sache war dass AMD selbst seine tiefer angelegten Karten (390) mit 8 GB ausstattete, das Topmodell aber nicht.
 
Bekommst du eigentlich eine Bezahlung von AMD dass die ihre Fury-Bestände loswerden oder woher kommt deine Affinität?

Bist vermutlich in diversen anderen Foren mit den gleichen Aussagen über Putin und Trump unterwegs, oder?
HWL hat sich wirklich verändert und das nicht unbedingt zum guten. Die stehts besoffenen 1.Mai Krawallbürsten und Dauerstudenten scheinen Überhand zu nehmen.
Wenigstens sind die Ärmchen dem Umfang von Spaghetti ebenbürtig.
 
Zuletzt bearbeitet:
Ich zeige einfach die neuen Benches von 2017. Hab ihr schon von DX12 + Async gehört? Da macht die Fury X +25% in 4K und schlägt die 1070.
 
Problem ist, die Fury X ist heute weitestgehend redundant.
Die kauft keiner mehr und ist hoffnungslos unterlegen.
Und nein, ich bin kein fanboy, ich warte sehnsüchtig auf Vega. Nur wenn das nix wird, da wurde ja eben auch ne 1080ti angekündigt.
Wobei ich sagen muss, eine wassergekühlte r9 nano ist was feines, wenn man sie sehr günstig bekommt
 
Zuletzt bearbeitet:
Ach ja async war ja dieses ultra verbreitete Feature was JEDER nutzt.
Kann ja sein dass die GCN Architektur das besser handlen kann und trotzdem konnte sich die fury nicht etablieren.
Die gpu hat sich letztendlich selbst limitiert.
 
Weiß ja nicht was du für Spiele spielst, aber vieleneue Konsolenports haben GCN Portierung und das ist DX12@Async.
Für alte Spiele reichen auch alte Karten.
 
Ich zeige einfach die neuen Benches von 2017. Hab ihr schon von DX12 + Async gehört? Da macht die Fury X +25% in 4K und schlägt die 1070.

Ja aber das nützt mir wenig. Weder BF1 noch Mass Effect: Andromeda unterstützen das ebenso wie DX12 nicht auf meinem Betriebssystem verfügbar ist. Ob die Fury mal in ein paar Jahren 25 % mehr Leistung bringt wird keinen interessieren, zumal 25 % auf 5 FPS 7,5 FPS sind.

Ach ja async war ja dieses ultra verbreitete Feature was JEDER nutzt.
Kann ja sein dass die GCN Architektur das besser handlen kann und trotzdem konnte sich die fury nicht etablieren.
Die gpu hat sich letztendlich selbst limitiert.

Wenn überhaupt Vega und ich denke der wird eine ernstzunehmende Konkurrenz zur 1080 (Ti).

Weiß ja nicht was du für Spiele spielst, aber vieleneue Konsolenports haben GCN Portierung und das ist DX12@Async.
Für alte Spiele reichen auch alte Karten.

Mass Effect: Andromeda ist ein altes Spiel, na dann würde ich das gerne spielen, das ist so alt dass du bestimmt eine Kopie davon hast... Her damit!
 
Ruhig Leute. Zu erst einmal ist Konkurrenz gut fürs Geschäft. Je mehr AMD und Nvidia um die Krone kämpfen, desto besser für uns Endkunden.

Nun aber mal zu den Punkten, die kaufentscheidend sind:

Die 1080 TI hat preislich relativ zu den anderen Karten wohl einen guten Punkt gefunden, absolut betrachtet sind 700 Euronen aber weit weg vom Mainstream-Bereich.

Und warum die großen Studios nicht auf die neuen APIs aufspringen ist auch nicht wirklich rätselhaft. Spiele wie Tomb Raider oder Deus Ex zeigen, dass man die Grundengine umbauen muss, um die vollen Vorteile aus den neuen APIs zu ziehen. Doom hats vorgemacht und oh Wunder, AMD profitiert. Bei den "Deckel-drüber" DX12 Portierungen profitiert niemand und es ist nicht mehr als ne Tech-Demo gewesen ohne wirtschaftlichen Nutzen.

Und die Krux ist nun einmal, dass so ein Engine-Umbau gerne mal mehrere Jahre dauern kann. Ergo werden wird auf absehbare Zeit kaum Verbesserungen sehen, bis die neuen Engines einschlagen, die von Leuten programmiert wurden, die ordentlich Ahnung von GPU-Pipelines haben - leider gibts nur wenige von solchen Menschen.

Async ist ein Feature mit sehr viel Potential, allerdings ist die Implementierung so teuer (Engine-Refactoring, Spezialisten einstellen, Handarbeit beim Optimieren), dass kaum jemand es anfassen will, da die Rentabilität darunter leiden würde - sind ja schließlich auch alles Unternehmen.

Bleibt also nur der Griff in die Baukastenbox und die AAA-Spiele der großen Publisher bleiben halbe Kartoffeln im Sinne ihrer Effizienz. Genau dort braucht sich Nvidia keine Sorgen zu machen und kann auch in Zukunft beruhigt so weitermachen wie bisher.

Bei optimierten Spielen und kommenden Krachern wie Star Citizen dreht sich der Schuh und Nvidia muss sich was ausdenken. Aber dafür haben die noch Zeit bis zur nächsten Generation.
 
Ja aber das nützt mir wenig. Weder BF1 noch Mass Effect: Andromeda unterstützen das ebenso wie DX12 nicht auf meinem Betriebssystem verfügbar ist. Ob die Fury mal in ein paar Jahren 25 % mehr Leistung bringt wird keinen interessieren, zumal 25 % auf 5 FPS 7,5 FPS sind.

Mass Effekt Andromeda wird bald kommen und man wird sehen wie die Fury X und später Vega drauf läuft. Es sind unter 4k sicher mehr als 7,5fps.
Meine Intention hast du scheinbar nicht verstanden. Alle diese Bonusleistung unter DX12, die die alte Fiji jetzt genießt mit +25%, werden auch im Vega drin sein. Da du aber nur zwei Spiele spielst, interessieren dich sicher nur die beiden Benches unter DX11. BF1 ist ja nun bekannt, weiß nicht wie es im andern GCN Game läuft.
 
Mass Effekt Andromeda wird bald kommen und man wird sehen wie die Fury X und später Vega drauf läuft. Es sind unter 4k sicher mehr als 7,5fps.
Meine Intention hast du scheinbar nicht verstanden. Alle diese Bonusleistung unter DX12, die die alte Fiji jetzt genießt mit +25%, werden auch im Vega drin sein. Da du aber nur zwei Spiele spielst, interessieren dich sicher nur die beiden Benches unter DX11. BF1 ist ja nun bekannt, weiß nicht wie es im andern GCN Game läuft.

Worauf ich hinaus will, ist dass selbst Leute die sich Windows 10 laden und DX12 nutzen selten Vorteile daraus ziehen. Schwache FX-Prozessoren mit AMD-Karten profitieren sehr (Stichwort: Overhead) davon, andere Kombinationen verlieren sogar an FPS.

Man kauft nicht jetzt eine Grafikkarte weil man denkt dass die in einigen Jahren mal besser werden könnte. Es ist richtig dass die AMD-Karten besser 'gealtert' sind, jedoch wird eine Karte wie die RX 480 oder Vega in vier Jahren leistungsmäßig untere Einstiegsklasse sein. Wenn sich dann DX12, Vulkan oder Ähnliches durchgesetzt hat und sofort nach dem Kauf eindeutige Vorteile böte wäre es ein stichhaltiges Argument.
 
Wenn sich dann DX12, Vulkan oder Ähnliches durchgesetzt hat und sofort nach dem Kauf eindeutige Vorteile böte wäre es ein stichhaltiges Argument.

Die "DX12 Diskussion" gabs schon, alles eine Schleife.
Optimierungen für Systeme gehen nicht sofort sondern Stück für Stück und müssen sich auf langer Zeit bewähren. Dabei gibs auch fails. Fury ist ein fail, weil AMD nicht sofort liefern konnte. Unter dem technischen Aspekt ist es ein Erfolg (+25% Leistung), auch wenn er sich erst spät in der Praxis zeigt. Wenn sich noch weiter heraustellt, dass Fury in DX12@Async generell besser performt als 1070, dann hat Vega sehr gute Karten in der Hand.
 
auch wenn er sich erst spät in der Praxis zeigt
Und bis dann kommt die nächste Generation, was soll das bringen mit "kaufen und hoffen" ? Wenn man Leistung kauft, dann im jetzt und nicht hoffen das irgendwann sich jemand mal die Mühe macht und DX12 + Async anständig integriert.
 
Vega kommt 2H 2017 und es ist nicht unrealistisch, dass bis dahin neuere Spiele in den neuen APIs unterstützt werden. Wer im 2H 2017 noch DX11 Spiele rausbringt, hat die Entwicklung verpennt oder schlichtweg keinen Bock gehabt, ordentliche Programmierer einzustellen.

Vulkan/DX12 sind seit ~2 Jahren verfügbar und das ist mehr als genug Zeit um sich anzupassen. Ein Studio/Publisher (Ich gucke hier auf EA/Ubisoft), die das nicht anfassen bringen halt nur Kartoffeln raus - das jährliche newgame für die Suchties - und es wird brav gekauft.

Zum Glück kanns mir egal sein, denn meine Kaufentscheidung für ne neue GPU umfasst zwingend guten Vulkan Support, weil ich auf entsprechende Spiele warte. Da danke ich AMD mir die entsprechende Platform zu bieten.
 
Wobei Vega offiziell für 1H 2017 angekündigt ist, nicht 2H 2017. Wird aber vermutlich frühestens Mitte Q2.
 
Ich schätze Juni / Juli, wobei man hier nicht weiß ob Jahr oder Geschäftsjahr gemeint ist.
Summer of Radeon, für mich wohl auf jeden Fall.
 
So, AMD Stock sold ... Die rebrand 4xxer als 500 können kommen :)

... geschrieben von unterwegs (Handy)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh