Kling alles ja sehr interessant. Aber die überschrift finde ich genial. Fehlt nur noch hinten ein "...villeicht aber auch nicht".
Der skorbisch hätte so eine überschrift jedenfalls nicht überlebt.
Muss gestehen, dass ich bei der Überschrift auch sofort an den Skorbisch dachte und etwas beschämt bin, das erste Mal komplett falsch gelegen zu haben.
Oder evtl. sollte der Autor beschämt sein, weil er bei mehreren den Verdacht geschürt hat mit der Überschrift? ;-)
Zum Thema:
Das klingt ja noch schlimmer, als ich dachte.
"Es kommt kurz nach RDNA2 Launch" war doch eh schon die zweite Aussage,... "es kommt zu RDNA2" war davor, oder?
In dem Interview sind so viele hole Phrasen verbaut, dass einem ganz flau im Magen wird. "Wir kommen intern gut voran!" ist doch das Äquivalent zu "Er war stets bemüht".
Schauerlich,... auch die anderen Aussagen suggerieren, dass sie noch nicht mal wissen, wohin die Reise gehen soll, bzw. wie sie dahin kommen könnten. Das ist typischer Talk aus einer Evaluationsphase heraus und nicht aus einer Entwicklungsphase.
Ich meine... nix gegen den Kerl. Ich rede auch so, wenn ich weiß, dass ich weit hinter dem Zeitplan stehe und ein Geldgeber wissen will, wie der Stand ist. Daher erkenne ich das auch so gut,... würde wohl genau die Worte auch wählen. Gibt mir zu denken. Evtl. muss ich das in Zukunft anders verpacken, wenn es echt soooo offensichtlich ankommt bei Unbeteiligten. ;-)
Aber im Ernst:
Was dauert da so lange? In der Zeit haben in München schon ZWEI Semester an Studenten diese Aufgabe als POC erfüllt. Einmal 7 Gruppen, einmal 9 Gruppen, jeweils a 3-4 Studenten.
So wild ist das nun wirklich nicht, also was hält AMD wirklich auf?
--> Das Problem der unterschiedlichen Auflösungen ist quasi nicht vorhanden. Einfach jede gängige Auflösung getrennt trainieren, fertig. Liefert eh bessere Ergebnisse, als zu versuchen ein Modell für alles zu machen. Im Treiber ist das ein Switch-Case und "der Kas' is biß'n".
--> "Unterstützung der Entwickler" - wozu? Unterstützung der Enginemacher wäre relevant,... wenn das auf Entwicklerbasis läuft, dann ist das ja das GEGENTEIL von "läuft überall",... dann läuft das ja nur, wenn die Entwickler das aktiv und in Eigenregie einbauen? Also keine Checkbox in UnrealEngine, sondern selber Code schreiben dafür?
Das war doch bei DLSS schon eine Totgeburt und NVidia hat sowohl das Geld, als auch den Support, den AMD noch nicht in dem Umfang hat.
--> "Die Qualität muss passen" - ja ehm. DUH? Es geht hier doch um Machine Learning. Sollen sie halt einfach mehr Serverpower stellen, dann geht das auch schneller.
Man stellt den Input, man stellt den Kontrolloutput.... man lässt den Algo trainieren und vergleichen. Der läuft dann paar Millionen mal und merkt sich immer die Parameter, die am nächsten am Ergebnis waren.
Dafür benötigt man ggf. noch eine sinnvolle Distanzfunktion zur Bewertung, je nachdem, wie man das implementiert (mit eigener Distanzfunktion ist das ggf. einfacher in dem Fall).
Das ist aber jeweils eine Sache von TAGEN gewesen auf LAPTOPS von Studenten, bis das Ergebnis bei ~50% Leistungsgewinn nahezu identisch aussah. Natürlich ist das nicht DLSS 2.0 Level, aber Studenten-Laptops sind auch keine KI Monster / Servercenter und Tage sind keine Monate, die AMD nun Zeit hatte.
Die Unterschiede waren für einige Doktoranden nicht erkennbar. Andere haben sehr kleine Details ausmachen können. Mit genug Rechenleistung wäre das ohne Stress ausgemerzt.
Ich vermute hier also eher andere Gründe, die nicht von der Softwareseite kommen.
Marketing verlangt irgendwas Unrealistisches? Irgendwelche Rechteprobleme? Verletzen sie NVidia Lizenzen in ihrem Ansatz?
Beim besten Willen glaube ich nicht, dass es an der Entwicklung scheitert. Zumindest nicht direkt. Die Chance, dass alle Studentengruppen AMD überflügeln, ohne Probleme, geht gegen 0. Das glaube ich nicht eine Sekunde.