AMD Radeon Vega Frontier Edition erscheint mit 16 GB HBM2 Ende Juni (Update)

Ja aber ich verstehe die Anspielung nicht, was genau meint er?

Aber schön zu hören, dass AMD weiterhin die Volta attackiert... Pascal ist scheinbar kein Thema... So ganz im Motto... Pascal ist geschichte, chancenlos gegen unsere Karte... Wir konkurrieren mit Volta

Das wäre echt schön aber die FE hinkt der 1080ti schon in Sniper Elite hinter her, sie ziemlich nah dran (Was mir Persönlich schon reicht) aber durch etwas mehr Takt wird man kaum 20% vor einer Ti Landen ausßer vllt. in Vulkan. Ich denke eher das AMD bei Vega2 mit 20-30% mehr Leistung erwartet und man daher gut auf Volta vorbereitet ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja aber ich verstehe die Anspielung nicht, was genau meint er?

Aber schön zu hören, dass AMD weiterhin die Volta attackiert... Pascal ist scheinbar kein Thema... So ganz im Motto... Pascal ist geschichte, chancenlos gegen unsere Karte... Wir konkurrieren mit Volta

Er weckt Hoffnungen bei seiner Käuferschaft. Genau das ist unter anderem sein Job. Was es bedeutet? Von schamloser Übertreibung bis Tatsache die komplette Bandbreite, was genau weiß nur er.

Das er lieber Volta als Pascal nimmt kann auch damit zusammenhängen, dass man über Volta nichts konkretes weiß, zu Pascal schon. Letzteres wäre also ein konkreter Vergleich, auf dem man ihn festnageln könnte, ersteres nicht. Marketing, sage nie etwas, was das du nicht auch anders interpretieren/auslegen kannst, verstehst du es langsam?
 
Zuletzt bearbeitet:
Weiss jemand, ob die GPU Virtualisierung von Vega auch unter den Consumer-Modellen möglich sein wird?
 
Das wäre echt schön aber die FE hinkt der 1080ti schon in Sniper Elite hinter her, sie ziemlich nah dran (Was mir Persönlich schon reicht) aber durch etwas mehr Takt wird man kaum 20% vor einer Ti Landen ausßer vllt. in Vulkan. Ich denke eher das AMD bei Vega2 mit 20-30% mehr Leistung erwartet und man daher gut auf Volta vorbereitet ist.

Soweit ich das gelesen habe, war die FE bei Sniper Elite etwas stärker als die TI... Dazu kommt noch, dass die Gamer Vega besser optimiert für Gamer und wahrscheinlich höher getaktet wird...

Fairer weiße muss man sagen, dass 15 Sekunden vom Spiel nicht vielsagen sind...
 
Zuletzt bearbeitet:
Weiss jemand, ob die GPU Virtualisierung von Vega auch unter den Consumer-Modellen möglich sein wird?

Die Frage wurde auch gestellt, aber nur in der Form beantwortet: "Our Pro Graphics solutions for servers like our current Multiuser GPU will focus on hypervisors that utilize virtualized graphics technologies."
 
Ich verstehe das so: Er kann auf die Chips noch mehr Spannung draufgeben, und die Leistung nochmals steigern, ohne dass es zu Problemen kommt, die ersten Chips werden also eher konservativ laufen. Wenn Volta rausgekommen ist, könnte es Sinn machen, dieses Ass zu ziehen - wer also jetzt schon die Karten kauft, und selbst etwas mehr Spannung draufgibt, wird auch noch einige MHz rausholen können - ähnlich wie bei der RX 480 -> RX 580. Allerdings ist klar, dass das wahrscheinlich per Treiber nur begrenzt möglich sein wird, und man eventuell einen Bios-Mod braucht, der dann vom Treiber sicherlich erst mal nicht angenommen wird, weil das Bios in dem Zustand nicht verifiziert ist. Es sei denn, man lötet das Board um.
Außerdem könnte natürlich das Fertigungsverfahren sich noch verbessern, wenn aber offensichtlich schon die Frontier Edition mit 1600MHz läuft, und tatsächlich nur die Profi-Karte ist, könnte es sein, dass in der Zeit, in der diese HBM2-Schwierigkeiten aufgetreten sind, die Fertigung von Vega selbst schon deutlich besser optimiert wurde, als zum Beispiel beim Polaris-Launch.

Ziemlich genau das. Der Produktionszyklus ist mehr oder weniger festgelegt und sieht bei AMD bisher immer so aus, dass sie ihre Initial-Architektur rausbringen und nach einiger Zeit ein Update. Nvidia macht es ähnlich, nur bringen sie zum Ende den Vollausbau, während AMD schon am Anfang den Vollausbau bringt, später aber mit noch mehr Takt/Speicher bzw. einen kleinen Prototypen als Zwischenversion um Fertigungsupdates einzubinden.

Das war bei der 7970 GHz edition der Fall, bei der Radeon R9 285 als GCN 3 Prototypen, jetzt die 500-er Serie mit mehr Takt und bei Vega haben wir jetzt schon einen Prozessupdate angegündigt bekommen.

Da die FE-edition mit 1600 MHz läuft und die RX noch mehr können sollen, denke ich, dass wir bei den Consumer-Karten mit Taktraten im Bereich von 1700-1800 MHz rechnen könnten und WaKü Varianten vielleicht an der 2 GHz Marke kratzen. Der Prozessupdate wird dann wohl die Frequenzen allgemein in die 2 GHz Richtung drücken und eventuell ist die Verfügbarkeit von HMB 2 dann auch soweit angestiegen, dass 16 GB Versionen auch für den Consumer-Markt möglich werden. Ob der Preis für 16 GB HMB2 dann aber noch attraktiv sein wird, ist eine andere Frage.
 
Die Frage wurde auch gestellt, aber nur in der Form beantwortet: "Our Pro Graphics solutions for servers like our current Multiuser GPU will focus on hypervisors that utilize virtualized graphics technologies."

Unbefriedigende Antwort. :fresse:
Für mein HomeLab wäre ein GPU-Beschleunigung (zu normalen Preisen) noch so praktisch. :P
 
Mustis schrieb:
....
Das er lieber Volta als Pascal nimmt kann auch damit zusammenhängen, dass man über Volta nichts konkretes weiß, zu Pascal schon. Letzteres wäre also ein konkreter Vergleich, auf dem man ihn festnageln könnte, ersteres nicht.....
Schlechtes Argument, denn wenn das Ergebnis nicht einmal Pascal fassen wird, wäre es noch lächerlicher. Insofern wieder mal ein Beitrag der mit viel Worten nur das Produkt schlecht schreiben soll. Ich sehe in deine Beiträge nicht einmal einen Pessimismus. Denn eine Person die Vega erst einmal pessimistisch sieht, hat auch wirklich Interesse an dem Produkt. Nein, bei dir geht es klar in die Richtig, das Produkt mit eben immer der gleichen Leier nieder zu schreiben.
Welche Gründe bewegen dich dazu? Schließlich machst du dies ja auch im CB Forum. Immer die gleichen Texte. Ich vermute mal, dass es eher persönliche Gründe sind.
 
Was wird bisher wissen:
Vega RX hat
- > 1600MHz Takt, vermutlich irgendwo zwischen 1700 und 1800MHz (so kolpotiert das auch die Presse)
- sehr sicher 8GB HBM in 2 Stacks mit je 4GB @ <= 2GHz bei Consumerprodukten
- tiling (im AMD-Slang binning), was lt. Aussagen von Raja aber auch von Nvidia 40-60% Bandbreitnersparnis mitbringt
- tiling, welches exakt das ist, was beispielsweise den GP106 stark an Rechenleistung einsparen lässt, da die Latenzen durch den Direktzugriff auf den L2-Cache deutlich geringer sind (der Trick ist, dass ein Tile in den Cache hineinpasst) und sich so die Recheneinheiten deutlich effektiver auslasten lassen
- deutlich schnellere ROPs, die mit dem L2$ und den Speichercontrollern direkt verbunden sind, aber natürlich auch komplette Bereiche deaktivieren, wenn die ROPs deaktiviert sind, also wie bei Maxwell/Pascal
- durch die neuen ROPs und das billing alle bislang fehlenden DX12/Vulkan-Features
- bei 1709 MHz satte 14 TFLOPs SP, aber 28TFLOPs half precision, id und Bethsda beispielswiese haben schon angekündigt intensiven Gebrauch von FP16 zu machen, id bezeichnet das sogar als den nächsten großen Wurf
- wie bei Fiji 2x 8-Pin Stromstecker verbaut, weil wie bei Fiji der Chip gar nichts aus dem PEG zieht (Eine Fiji-Karte zieht da grad mal 20W). Die zusätzlichen 75W, die als PCIe-Stecker ausgeführt sind also HBM-bedingt quasi.
- bei nur 2GB aktivem VRAM fast die Leistung einer 1080ti bei SE4, obwohl dort fast nur der Framebuffer Platz hat und massiv Daten direkt aus dem lahmen Hauptspeicher geladen werden müssen
- dank HBC lt. Raja nur ca. die Hälfte an VRAM-Verbrauch als andere Karten und all das funktioniert vollkommen automatisch in Hardware, kein Programmierer muss darauf Rücksicht nehmen lt. Raja

Das zeigt vor allem eines:
1.) Das Ding ist für Gamer erheblich schneller als vorher gedacht. Mit 1,7GHz+ und ca. 14TFLOPs haben sicherlich die wenigsten gerechnet.
2.) Holt AMD jetzt alles auf, was an technologischem Rückstand und Featurerückstand durch das tile cache rendering ggü. NV seit Maxwell existiert.
3.) Zudem hat Vega dank des neuen Speicherverfahrens (also Systemspeicher als VRAM, HBM nur als Cache) deutlich mehr Reserven als bisherigen VRAM-Lösungen, ohne in Gefahr zu laufen, das es irgendwann zu Ruckeleien kommt.
4.) Die FP16-Leistung könnte sich zu einem Knaller entwickeln. Lt. id sind recht viele Daten in dem Format verarbeitbar, Postprocessing, Beleuchtung usw., es wird als ein signifikanter Teil der Features billiger auf Tonga/Fiji/Polaris/Vega. Zudem bringt Vega noch mal extra viel Rechenleistung mit für FP16. Ich bin gespannt, wie das in id-Tech 7 dann wirkt, wo das konsequent umgesetzt wird.
5.) alle Nachteile, die GCN seit Erscheinen von Maxwell mit sich herumschleppt sind mit Vega eliminiert worden, ohne die Vorteile (z.B. async compute und FP16) zu verlieren.
 
Zuletzt bearbeitet:
Naja, jetzt dchon wieder irgendwelche wunschtaktraten.von 1700+ zu erwarten halte ich für nicht besonders klug. Denke wir alle erinnern uns noch gut an die 480er, wo sich genau das, schlussendlich als masslos übertrieben herausstellte und schlussendlich an amd kritisiert wurde.

Und fp16 klingt zwar toll, bringt aber leider nichts oder sehr wenig, wenns nicht eine breite unterstützung gibt. Ähnlich wie dx12/vulcan theoretisch super praktisch nur wenig vorteil für amd karten da meisst schlecht unterstützt.
 
1.) Das sind keine Wunschtaktraten sondern 100MHz mehr als die FE. Da Raja mehr Leistung bestätigt hat, ist das sogar eher das Minimum.
2.) FP16 wird sich sowieso durchsetzen wegen den Konsolen. Und es behindert NV ja nicht. Es handelt sich hier ja nur um ein Datenformat, das auch in FP32 gerechnet werden kann, hier eben nur ohne Vorteile. Das wird sich also so oder so durchsetzen und ist obendrein unabhängig von der API.
 
1.) Das sind keine Wunschtaktraten sondern 100MHz mehr als die FE. Da Raja mehr Leistung bestätigt hat, ist das sogar eher das Minimum.

Raja hat für Gamer Vega mehr Leistung bestätigt, das ist richtig. Woher die Leistung aber genau kommen soll und wie hoch diese überhaupt ausfallen soll, ist dabei jedoch völlig offen. 100MHz mehr GPU-Takt kann sein, muss aber nicht. Es können auch nur 20MHz mehr sein oder/und HBM2 wird wird höher getaktet oder/und durch Treiberoptimierungen. Wir wissen es nicht. Das was du hier als Minimum ansiehst ist doch nur eine völlig freie Interpretation von Rajas sehr vage formulierter Aussage.
 
Ich sehe es so, die Profimarkt-Treiber sind alles andere als Gameing-Optimiert. Genau so wenig wie die Gaming Treiber alle Sachen für den Profimarkt inkl. haben...
Das ist bei NV auch nicht anders... Und so manche Profikarte dreht Kreise um den Gamingableger, nur weil da dediziert optimierte Treiber verwendet werden (und umgekehrt)

Allerdings dürften die Taktraten des Gamingmodells, vor allem als Custom Version durchaus etwas höher als die des Profiablegers liegen. Weil einfach die Belastung auf/in Games idR ein Stück weit geringer sein wird und damit der Boost nach oben hin etwas mehr Luft hat. Zumal bspw. auch die Dauerlast bei Games idR ganz andere Anforderungen hat. Nur die aller wenigsten Games werden wirklich permanent unterbrechungsfrei Volllast auf dem Ding fahren (können), während das gerade im GPGPU Umfeld oder im Renderumfeld auf Profihardware sein kann -> und entsprechend auch berücksichtigt wird.
Der Boost/Turbo geht ja gerade den Weg, Spitzen abzufangen... Also kurzzeitig mehr Performance durch höheren Takt zu bringen. Nur wird halt bei weniger Belastung der max. Takt gehalten ohne dass da mehr Performance rumkommt.


Also an der Aussage wird definitiv was dran sein -> also warscheinlich ein bisschen höhere Taktraten. Mindestens mit Custom Modellen ;) Und mehr Performanance maßgeblich wohl eher durch Optimierungen im jeweiligen Bereich.

- - - Updated - - -

2.) FP16 wird sich sowieso durchsetzen wegen den Konsolen. Und es behindert NV ja nicht. Es handelt sich hier ja nur um ein Datenformat, das auch in FP32 gerechnet werden kann, hier eben nur ohne Vorteile. Das wird sich also so oder so durchsetzen und ist obendrein unabhängig von der API.

Setzt allerdings vorraus, man nutzt entsprechend geringere Breite.
Wenn die Basis weiterhin 32Bit breit ist, bringt es halt genau nix... Man muss explizit auf 16Bit gehen um den Vorteil auch nutzen zu können. Und das bedeutet im Umkehrschluss im Zweifel aber auch die Berücksichtigung von Typkonvertierungen. Du kannst ohne Aufwand das Schmale ins Breite konvertieren, indem einfach hinten aufgefüllt wird. Aber umgekehrt eben nicht.



Wann/ob FP16 irgendwann mal das Maß werden, wird sich noch zeigen... In gewissen Märkten, wo hochoptimierter Code im Einsatz ist, kann ich mir das ja noch durchaus vorstellen. Im stino x86/Gaming Umfeld? Da interessiert sich doch heute länger schon keiner mehr für echte Optimierung. Es liegt so viel Potential auf der Straße. FP16 support native wäre da klar auch zu nennen. Aber man hat es heute schon nicht mehr so mit Optimierungen... Warum soll gerade FP16 da Punkte bringen und es ändern? Kann alles ein -> Muss ist da aber bei weitem nicht gegeben.

Auf der GPU ist das auch nicht anders als im CPU Umfeld... Bspw. wenn man sich mal ansieht warum wird bspw. so häufig "double" in "C" verwendet? Auch ohne Expliziten Nutzen der höheren Genauigkeit?
Da sind so teils für den Außenstehenden komisch wirkende Gründe zu sehen. Bspw. ein "float x = 0.0" erzeugt eine explizite Typkonvertierung von 0.0 double auf 0.0 float -> und damit Arbeit für den Prozessor. Ein "float x = 0" erzeugt eine explizite Typkonvertierung von Int auf float -> ebenso mehr Arbeit. Richtig wäre ein "float x = 0.0f" -> und mit abstand der meiste Text zu schreiben. Nur sind Programmierer idR (schreib)faul ;) Also nimmt man recht häufig einfach die Mehrarbeit in Kauf und spart sich selbst den Schreibaufwand.


In Kurzform -> FP16 kann Performancevorteile bringen. Ob der geneingte Softwareentwickler das aber nutzen wird, steht auf einem völlig anderen Blatt...
Am Ende ist das alles wieder eine Frage zwischen Theorie und Praxis ;)
 
Ich sehe es so, die Profimarkt-Treiber sind alles andere als Gameing-Optimiert. Genau so wenig wie die Gaming Treiber alle Sachen für den Profimarkt inkl. haben...
Die Profi-Treiber haben manche Features, die eventuell zu besserer Bildqualität führen können, aber mehr Leistung kosten. Steckt man die gleiche Karte bei Linux rein, und nutzt den OpenSource-Treiber, wird sie wahrscheinlich gleich schnell wie ein Consumer-Modell laufen. Die Frage ist aber, ob der HBCC unter Linux auch direkt verfügbar ist, oder ob der VRAM konventionell benutzt wird, weil ja der Treiber dazu einen virtuellen Platz im RAM schaffen muss, damit er selbst die Kontrolle übernehmen kann, welche Teile zusätzlich im HBM2-Cache landen müssen. Dazu ist also auch eine Softwareimplementierung nötig, weil mit den bisherigen APIs das Vorgehen nicht so vorgesehen ist.

Ich denke auch, dass 1700-1800MHz realistisch sind und stimme ansonsten [HOT] auch zu. Sollte die Einschätzung genau so eintreten, wäre das für AMD sehr positiv, aber es sieht eben aktuell ziemlich genau so aus, wie beschrieben, nämlich dass die AMD-Leistung mit Vega sehr ähnlich gut auf die Straße gebracht werden müsste, wie es Nvidia schon hinbekommt. Kleiner Tipp: Bei 1831 MHz hätte man exakt 15 TFLOPS FP32-Leistung und 30 TFLOPS FP16-Leistung - das ist aktuell mein persönlicher Traum-Takt, und ich hoffe, dass der möglicherweise mit Übertaktung machbar sein könnte.
 
Die Profi-Treiber haben manche Features, die eventuell zu besserer Bildqualität führen können, aber mehr Leistung kosten. Steckt man die gleiche Karte bei Linux rein, und nutzt den OpenSource-Treiber, wird sie wahrscheinlich gleich schnell wie ein Consumer-Modell laufen.

??
Weist du oder denkst du? Warscheinlich ist nichts wert... Entweder du wiedersprichst mir oder du bestätigst die Aussage... Ein Wiederspruch auf Basis einer Annahme ist irgendwie genau nix wert...
Mit OpenSource und Linux hat meine Aussage im übrigen auch gar nix zu tun. Genau so wenig wie mit BQ...
 
Ein "float x = 0" erzeugt eine explizite Typkonvertierung von Int auf float -> ebenso mehr Arbeit.

*Klugscheißmodus on*

Nein, von int auf float ist in diesem Fall eine implizite Typumwandlung :d
Zudem sollte man ergänzen, dass bei solchen statischen Konvertierungen, die geringe mehr Arbeit für den Prozessor nur zur Compilezeit auftritt und nicht zur Laufzeit. Wenn aber erst zur Laufzeit klar ist, dass eine Typkonvertierung nötig ist, dann stimmt es mit dem mehr an Arbeit für die CPU.

*Klugscheißmodus off*
 
??Mit OpenSource und Linux hat meine Aussage im übrigen auch gar nix zu tun. Genau so wenig wie mit BQ...

Na ja, indirekt schon. Du hast es vielleicht nicht darauf bezogen, aber:

Nvidia hat mit den Treibern in der Vergangenheit künstliche Schranken eingebaut. Die Profi-Treiber haben bestimmte Beschleunigungsfunktionen, während die Consumer-Karten diese nicht im Treiber haben. Da gabs mal ein paar Spezis, die mit BIOS-Flash genau das aktiviert haben - ist aber schon ein paar Jahre her und war so rund um Fermi (?) +/- eine Generation. Evtl. geht das sogar heute noch, aber da leg ich meine Hand nicht für ins Feuer. Ich nehme mal an, Nvidia hat angefangen da mit nem Laser einfach Module hart zu deaktivieren.

Aber zurück zum Thema: Bei OS Treibern gibt es so etwas nicht. Entweder die Karte ist fähig Dinge zu tun und das wird dann unterstützt, oder die Karte kann es nicht und Ende. Es gibt keine künstliche Treiberbeschränkung für gewisse Hardware-Beschleunigung in Profi-Programmen bei bestimmten Modellen durch den Treiber. Und das ist wohl, auf was overclocker hinaus wollte.

Es kann natürlich sein, dass AMD für die Profi-GPUs tatsächlich einen anderen Chip mit zusätzlichen Funktionen verwendet - allerdings deutet bisher nichts darauf hin.
 
@Paddy92
Haste recht ;) Soweit runter sollte es aber eigentlich gar nicht gehen -> versteht doch sowieso keiner hier ;) Das "explizit" sollte eigentlich eher als Ausdruck einer durchzuführenden Typkonvertierung herhalten. Und im hiesigen Kontext wird idR mit Schnittstellen gearbeitet -> bedeutet soviel wie, während der Laufzeit wird es häufig Fälle geben, gerade bei/an diesen Schnittstellen, das entsprechend falsch deklarierte Typen eben eine Typkonvertierung notwendig machen. Im Beispiel eben nicht. Auch das stimmt natürlich.

Aber sei es drum, der komplette Absatz ist für mich nur ein Beispiel zum Verdeutlichen, dass so manche Entscheidung nicht getroffen wurde, weil es "Sinn" hat, sondern aus Gründen, die man nicht zwangsweise nachvollziehen können muss...
Denn gern wird hier argumentiert, dies und jenes bringt Vorteil xyz und genau deswegen wird man es auch nutzen -> nein, eben nicht. Nur weil etwas für den Außenstehenden Sinn ergibt, wird es nicht zwangsweise auch genutzt. Auch das Ergebnis, das damit ein Vorteil entsteht, muss nicht bedeuten, dass man deswegen bisheriges entsprechend anpasst... Gerade das Thema FP16 im Gamingbereich. Ich kann dabei völlig falsch liegen, aber aus meiner Sicht ist das auf absehbare Zeit völlig egal... Und ob es jemals wirklich einen Leistungstechnischen Unterschied in der Fläche ergibt? Fraglich -> aus meiner Sicht.
 
1.) Das sind keine Wunschtaktraten sondern 100MHz mehr als die FE. Da Raja mehr Leistung bestätigt hat, ist das sogar eher das Minimum.
2.) FP16 wird sich sowieso durchsetzen wegen den Konsolen. Und es behindert NV ja nicht. Es handelt sich hier ja nur um ein Datenformat, das auch in FP32 gerechnet werden kann, hier eben nur ohne Vorteile. Das wird sich also so oder so durchsetzen und ist obendrein unabhängig von der API.


Klar sind es wunschtaktraten. Oder gibts irgend welche fakten zu mehr als 1600? Nein.
Klar rechne ich auch damit, dass es mehr sein wird, aber nach der fury wissen wir ja alle, dass amd durchaus chips an der grenze betreibt um eine gewisse leistung zu liefern und deshalb wär ich vorsichtig mit irgendwelchen taktschätzungen und "mindestens + soundsoviel mhz".

Und bezüglich den 16 vs. 32 hab ich von der technik zuwenig ahnung, als dass ich es wirklich beurteilen könnte. Aber erfahrungsgemäss werden solche änderungen meist nur gemacht, wenns auch finanziell entsprechend rentiert, sich diesen mehraufwand anzutun. Und solange die gamer einfach die hardware anpassen, wenn die leistung nicht reicht, gibts für entwickler ja wieder einen grund weniger, sich die mühe zu machen.
Klar konsolen können da eher was bewirken.
 
Aber erfahrungsgemäss werden solche änderungen meist nur gemacht, wenns auch finanziell entsprechend rentiert, sich diesen mehraufwand anzutun. Und solange die gamer einfach die hardware anpassen, wenn die leistung nicht reicht, gibts für entwickler ja wieder einen grund weniger, sich die mühe zu machen.
Klar konsolen können da eher was bewirken.

Ja - richtig. Und genau hier darfst du dich fragen, warum ein großer Teil des budgets für ein Spiel (Abseits von Marketing) für Grafikpracht investiert wird, aber weniger in Sachen wie "Story" oder "tiefe Spielmechanik".

Grafik ist ein Hauptverkaufsargument für jedes AAA Spiel. Wenn du dank FP16 2x so viele Effekte einfügen kannst als bei FP32, dann hast du auf einmal gefühlt 3 Generationen Grafikpracht-GPU-Aufrüstung durch Software realisiert. Das lässt sich kein Entwickler durch die Finger gehen. Wer nicht auf FP16 setzt, würde da recht schnell abgehängt werden - im Markt wo die Spieler Grafikgeil sind.

Das kann jetzt für so Sachen wie Civ, Stellaris, XCom etc völlig egal sein. Bei Sachen wie Assassins Creed, Watchdogs, GTA etc ist das hingegen schon wichtig.

Ansonsten muss man aber sehen was fdsonne gesagt hat: FP16 benötigt um zu laufen einen nicht geringen Aufwand an der Kernengine. Obwohl ich bezweifle, dass der teurer wäre als neue Effekte einzuprogrammieren (und entsprechend "on the fly" mitgenommen wird, wo man sowieso neu anfassen muss), gibt es einige Studios die seit mehreren Spiele-Generationen auf ein und die selbe Engine setzen.

Es könnte sein, dass der Produktionspozess (nennen wir ihn einfach mal content-Pipeline) so krass rationalisiert worden ist, dass selbst kleinste Änderungen daran die ganze Struktur über den Haufen werfen... aka Fließbandarbeit. Dafür habe ich aber zu wenig Einblick in die Arbeitsweise der Studios. Mir ist nur das Gegenbeispiel bei CIG bekannt, wo die Pipelines schon zig mal über den Haufen geworfen worden sind und unterm Strich trotzdem schneller voran geht.

Bleibt wohl kontrovers.
 
Die Geschichte mit FP16 ist wie die nächste Saul die jetzt durchs Dorf getrieben wird, die nächste Karotte vor dem Maul.

Zuerst war es Mantle mit dem AMD gegen NV abheben wird, dann DX12.
DX12 gibt es jetzt seit Win10, also nicht erst seit gestern, Spiele mit richtig guter DX12 Implementierung kann man an 2 Händen abzählen, leider.
Und dann gibt es noch den Mantle-Nachfolger Vulkan, diesmal auch mit NV-Support.
Hier gibt es derzeit auch max 5 Spiele welche die neue API unterstützen.

Klar wird es mit der Zeit mehr Richtung der neuen APIs gehen aber das Argument mit Zukunftssicherheit gilt bei einer Grafikkarte eben nur in einem kurzen Zeitraum, 2- max 3 Jahre.
Danach reicht die Leistung ja sowieso nicht mehr aus, eine HighEnd-GraKa von heute ist in 3 Jahren leistungsmäßig im Mittelfeld, jemand der wirklich bereit ist tiefer in die Tasche zu greifen wird nach 2-3 Jahren nicht mehr glücklich sein mit der Leistung.

Man sollte am Boden bleiben mit den Erwartungen, wenn Vega RX mit der Leistung der angekündigten FE kommt (+etwas mehr Takt) und "nur" 8GB sollte es für eine Ti reichen, wenn der Preis dann noch vernünftig ist, also 700€ Release und 750€ für die typischen Custom-Modelle dann wäre das aktuell absolut ausreichend.
Nebenbei würde es NV schwer fallen seine übliche Veröffentlichungstaktik (zuerst GV104 zu Preisen eines späteren GV102 und später Preissenkung des GV104 bei Release des GV102) weiterhin durchzuziehen weil es eben einen AMD Gegenspieler gäbe der knapp am einem GV104 liegen würde.

Hoffnungen auf irgendwelche APIs oder FP16-Implementierungen sind quatsch, man sucht sich seine Spiele nicht nach der verwendeten API aus.
Das hat übrigens auch sicher AMD begriffen, klar nimmt man für erste Benches immer Cherry-picked Games, aber das machen alle so.
Aber ich glaube dass AMD sehr wohl bewusst ist das Leistung auch in DX11 vergleichbar mit der Konkurrenz sein muss.
 
Zuletzt bearbeitet:
Und das ist wohl, auf was overclocker hinaus wollte.
??
Was spielt es für eine Rolle, auf was oooverclocker hinaus wollte? Er hat mir widersprochen und ein Widerspruch auf Basis einer Annahme, weil er es selbst gar nicht weis ist irgendwie gaga. Aber das ist wieder so eine Sache, wo ich davon ausgehe, du wirst es nicht nachvollziehen können, weil du ebenso nichts mit der Thematik am Hut hast...

Und bezüglich den 16 vs. 32 hab ich von der technik zuwenig ahnung, als dass ich es wirklich beurteilen könnte. Aber erfahrungsgemäss werden solche änderungen meist nur gemacht, wenns auch finanziell entsprechend rentiert, sich diesen mehraufwand anzutun. Und solange die gamer einfach die hardware anpassen, wenn die leistung nicht reicht, gibts für entwickler ja wieder einen grund weniger, sich die mühe zu machen.
Klar konsolen können da eher was bewirken.

Es kommt noch erschwärend hinzu, es ist nicht nur ein mit xxx Euro/Dollar kaufbarer Umstand. Sondern es setzt halt auch eine gewisse Konsequenz vorraus bzw. zieht diese nach sich... Theoretisch gibt es auf technischer Basis nur bedingt Gründe, die dagegen sprechen. Das meiste, was gegen sprich sind Befindlichkeiten der Entwickler. Und eben der Faktor Zeit. Denn es bedeutet unter Umständen ein quasi vollständiges Codereview und entsprechende Anpassungen anstatt einfach die Libs zu nutzen, wie sie vorhanden sind... Möglicherweise werden Lizenzengines da eher die Vorreiter -> ob es dann am Ende genutzt wird, ist aber weiterhin offen.

Was die Konsolen angeht, auch da bin ich zwiegespalten... Die Konsolen geben zwar gewisse Basis vor, aber Entwickersysteme sind doch nicht die Konsolen als solches. Entwickelt wird weitestgehend auf stino PC Hardware. Und je nach dem, ob da nun AMD oder NV drin steckt, oder gar mit im Boot ist, wird man natürlich immer versuchen die jeweiligen Vorzüge der beiden Kontrahenten in den Fokus zu rücken... Wenn Vega FP16 auch auf dem Gamermodell in doppeltem Speed liefert, ist davon auszugehen, dass dort, wo AMD im Boot ist, der Spaß versucht wird, zu fokusieren. Da es Pascal Geforce nicht kann (ggf. Volta Geforce auch nicht), dürfte bei NV im Boot definitiv der Fokus da nicht drauf liegen ;)

Wenn du dank FP16 2x so viele Effekte einfügen kannst als bei FP32, dann hast du auf einmal gefühlt 3 Generationen Grafikpracht-GPU-Aufrüstung durch Software realisiert. Das lässt sich kein Entwickler durch die Finger gehen. Wer nicht auf FP16 setzt, würde da recht schnell abgehängt werden - im Markt wo die Spieler Grafikgeil sind.

Das wird nicht so passieren... BQ hängt nicht davon ab, ob du FP16 oder FP32 nutzt... BQ hängt in erster Linie von den Fähigkeiten der Game-Designer und/oder Kontent-Ersteller ab. BQ durch "Leistung" ist nur ein Skalierungsfaktor.
Man kann mit sehr sehr wenig Aufwand optisch ansprechenden Kontent erschaffen, einfach weil es stimmig ist. Oder mit sehr sehr viel Aufwand optisch beschissene Ergebnise, weil es einfach nicht stimmig/passend ist. Für letzteres ist übrigens GPU-PhysX ein Paradebeispiel, da die Effekte idR maßlos übertrieben eingesetzt sind/werden und man damit den Spaß einfach zerspielt.

IdR ist es auch so, ein guter Programmierer ist wenig gut in Sachen Design und andersrum... Mit dem falschen Designer wirst du auch bei sonst wie guter Optimierung/Hardware kein optisch rundes Produkt hinbekommen... Und ein guter Designer kann dies auch mit wenig Hardwarebedarf erreichen!
 
Bis auf deine trollenden Einzeiler hast du auch nichts beizutragen oder?
Oh ist ja auch ein AMD Thread...
 
Genau. Gehen die Argumente aus, wird man persönlich......
Ich will nur verhindern, dass jemand unter Verfolgungswahn vor mir leidet, nur weil ich ihn mal zitiere. Und auf das, was geschrieben wurde, brauche ich nicht eingehen - wie sinnvoll das ist, kannst Du Dir ja sicherlich selbst schon denken.
 
Du phantasierst zu viel.

Nein ganz im Gegenteil, ich sage meine Meinung über Aussagen, die offenkundig auf Wunschdenken beruhen... Es sind auffallend oft immer die selben Leute mit immer der selben Einstellung zu diesem und jenem Produkt/Thema, die derart fern ab der Marktrealität Sachen erfinden.
Wart doch mal ab... Macht den Eindruck, als willst du unbedingt den Übervega. Einfach Füße still halten... Das wird schon. :wink:

Nix für Ungut, aber irgendwann wird es wirklich nervig, vor allem wenn die Aussagen klar erkennbar gepaart mit Halbwarheiten und Binsenweisheiten gespickt sind. Ich bin der Letzte, der irgendwas gegen Spekulationen oder irgendwelche Technik-Diskusionen hat. Aber ein gewisses Maß an Realität sollte schon beibehalten werden.

Ernst gemeinte Frage, was hast du mit Softwareentwicklung, Treiberprogrammierung und im speziellen VRAM Management wirklich am Hut um eine Aussage wie die obige überhaupt so zu treffen über den HBCC und die Funktionsweise des Treibers/des HBCC?? -> Es gibt eine Realität neben dem Wunschdenken... Ich sehe es so, wenn man eigentlich mit dem Thema so gar nix am Hut hat, sollte man vielleicht nicht den Erklärbär spielen -> Meine Meinung. Denn damit verbrennt man sich oft auch die Finger! Also spiel nicht die beleidigte Leberwurst, wenn man dir genau das vor Augen führt! :wink:

PS: und wenn du selbst mal deine Aussage nochmal in Ruhe ansiehst, erkennst du warscheinlich auch den Widerspruch ;) Das ist wie, wenn zwei Leute im Keller sitzen, seit Tagen am Stück ohne Licht und ohne Uhr -> und der eine meint, jetzt ist draußen Sonne -> und der andere meint, nein draußen ist warscheinlich Nacht! Das ist zweifelsfrei ein Widerspruch -> nur macht das warscheinlich die Aussage völlig gaba... Wenn du widersprichst, mach es mit Nachdruck bzw. mit Überzeugung. Alternativ, beleg dir Aussage mit Fakten. Das macht nämlich die Diskusionen ungemein angenehmer, anstatt immer auf dem Wunschkonzert zu spielen.
 
??
...du wirst es nicht nachvollziehen können, weil du ebenso nichts mit der Thematik am Hut hast...

Schönes Argument, sehr objektiv, unpersönlich und sehr gut begründet.

Lass mal gucken?

Er: Profi Treiber haben Features, die normale nicht haben. Plus: Profi AMD Karten werden unter Linux wahrscheinlich mit den OS-Treibern genauso laufen wie die consumer-Modelle.
Du: Bestätige oder widerspreche mir. (Dein erster Fehler: Er diskutiert und gibt seine Sichtweise um die Sachlage zu erweitern, nicht primär um dir zuzustimmen oder zu widersprechen. Er versucht objektiv zu bleiben, dir geht es darum recht zu haben)
Ich: *versuche dir zu erklären, dass overclocker mit dem was er sagt durchaus recht hat und hoffe darauf, dass du es nur in den falschen Hals bekommen hast*
Du: *persönlicher Angriff und ignorierst alles, was wir gesagt haben*

Sorry Sonnenschein, was du von mir denkst ändert nichts an den Fakten und ja, ich denke ich habe mehr Ahnung von der Linux-Performance von AMD Karten als du - denn ich nutze sie unter Linux.

PS: Die letzten Ergebnisse der OS-Treiberentwicklung platzieren die Leistung einer RX 470 zwischen einer Nvidia 1060 und einer 1070. Die Leistung des OS-Treibers hat dort die Leistung des CS-Treibers im Vergleich zu Windows in mehreren Titeln überholt und erreicht dort nahezu die theoretische Maximalperformance im Vergleich mit Nvidia, wenn man die nackten TFlops betrachtet.

Vielleicht bekommst du von all dem nichts mit, vielleicht interessiert es dich nicht, vielleicht denkst du, dass OS-Treiber immer noch die kleinen Wickelkinder von Nerds sind, die nur weil es OS ist genutzt wird und sie ansonsten eingeschnappt in der Ecke stehen, weil sie nichts anfassen wollen was CS ist. Aber die Zeiten haben sich geändert. Die OS-Treiber sind nicht nur konkurrenzfähig, sondern auch stabiler. Wir kommen so langsam in Bereiche, wo sich "Gamer" aus Leistungsgründen für Linux interessieren.

Das wird nicht so passieren... BQ hängt nicht davon ab, ob du FP16 oder FP32 nutzt... BQ hängt in erster Linie von den Fähigkeiten der Game-Designer und/oder Kontent-Ersteller ab. BQ durch "Leistung" ist nur ein Skalierungsfaktor.
Sorry, Bullshit. Je mehr Leistung ich zur Verfügung habe, desto mehr mehr Effekte kann ich in eine Szene werfen, welche die BQ erhöhen. Gibt mir FP16 mehr Leistungsreserven, kann ich mehr Effekte in eine Szene bringen, was die BQ erhöht.

Sei es durch zusätzliche Polygone, mehr Licht- und Schatteneffekte, Partikel, Kantenglättung oder was auch immer ich für die eingesparte Leistung durch FP16 reinwerfe.

Und was in Gotten Namen meinst du mit "es ist NUR ein Skalierungsfaktor". Echt jetzt - fällt dir da nichts auf? BQ wird nicht besser, sie skaliert nur mit höherer Leistung, die durch FP16 freigemacht wird.

"Wenn ich ein halbes Schwein esse, nehme ich nicht zu, es erhöht sich nur meine Masse."

Man kann mit sehr sehr wenig Aufwand optisch ansprechenden Kontent erschaffen, einfach weil es stimmig ist. Oder mit sehr sehr viel Aufwand optisch beschissene Ergebnise, weil es einfach nicht stimmig/passend ist. Für letzteres ist übrigens GPU-PhysX ein Paradebeispiel, da die Effekte idR maßlos übertrieben eingesetzt sind/werden und man damit den Spaß einfach zerspielt.

IdR ist es auch so, ein guter Programmierer ist wenig gut in Sachen Design und andersrum... Mit dem falschen Designer wirst du auch bei sonst wie guter Optimierung/Hardware kein optisch rundes Produkt hinbekommen... Und ein guter Designer kann dies auch mit wenig Hardwarebedarf erreichen!

Ich widerspreche! (Gabs da nicht mal einen Anime mit nem "Einspruch"-Typen?)

Die Fähigkeit eines Designers/Programmierers A die Zusatzleistung zu verkacken, beeinflusst nicht die Fähigkeit des Designers/Programmierers B die Zusatzleistung effektiv zu nutzen.
 
Zuletzt bearbeitet:
Nix für Ungut, aber irgendwann wird es wirklich nervig, vor allem wenn die Aussagen klar erkennbar gepaart mit Halbwarheiten und Binsenweisheiten gespickt sind.
Mit solchen Aussagen habe ich halt ein Problem. Und danke auch an Shevchen für die Erklärung. Ich sehe das eigentlich genauso.
Wie soll ich da noch sachlich argumentieren? - Du verlangst Sachlichkeit, und wenn eine Grafikkarte mit 2 8GiB-HBM2-Stacks auftaucht, war Deine vorher geäußerte Skepsis bezüglich der 8GiB-Stacks plötzlich auf die Gamerversion beschränkt gewesen. Ich habe mit knapp über 300€ für den kleinsten Ryzen-Oktacore spekuliert, Du hast es für absolut unrealistisch gehalten und mindestens 800€ für den i7 6900K-Gegner angegeben. Der kleinste kostet jetzt 320€, der teuerste 470€. Ich wette, Du hast jetzt auch schon wieder eine Erklärung parat, wie Du das eigentlich gemeint hast, damit es wieder stimmt.

Ernst gemeinte Frage, was hast du mit Softwareentwicklung, Treiberprogrammierung und im speziellen VRAM Management wirklich am Hut
Wahrscheinlich mehr als Du denkst, aber das ist mein privater Account, der Nickname ist mindestens 15 Jahre alt und damit habe ich auch einiges an Zeug geschrieben, das ich nicht mit meiner aktuellen Tätigkeit in Verbindung bringen kann.

Wenn du widersprichst, mach es mit Nachdruck bzw. mit Überzeugung.
Vielleicht habe ich Dir ja in dem Punkt, den Du ansprichst, gar nicht widersprochen. Diese ständige Grundunterstellung stört mich einfach.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh