GDC: Deep-Learning-Netzwerke helfen bei der Entwicklung von Spielen

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.220
<p><img src="/images/stories/logos-2013/nvidia_2013.jpg" alt="nvidia 2013" style="margin: 10px; float: left;" />Machine Learning, AI, Deep Learning – diese Begriffe sind derzeit bei fast allen Herstellern und deren Präsentationen sehr beliebt. Oft wissen Nutzer gar nicht, dass sie bereits heute auf diese Techniken angewiesen sind. Digitale Assistenten, viele Cloud-Dienste und unzählige Anwendungen sind bereits heute auf solche Techniken angewiesen. NVIDIA arbeitet mit zahlreichen Entwicklern daran, dass solche Netzwerke künftig auch bei der Entwicklung von Spielen eine Rolle spielen.</p>
<p>Doch bei der Entwicklung von Spielen sollen Deep-Learning-Netzwerke helfen, die Spiele noch realistischer und noch besser zu machen. Dies zielt vor allem auf die grafische Darstellung ab, denn...<br /><br /><a href="/index.php/news/allgemein/wirtschaft/42146-gdc-deep-learning-netzwerke-helfen-bei-der-entwicklung-von-spielen.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hmmm... laut Wikipedia spricht man bei Deep Learning von "tiefgehendem Lernen", die genannten Einsatzgebiete haben zwar etwas mit "Lernen" zu tun, was durch die GPU beschleunigt werden kann - Ist uns ja allen bekannt, und sind somit ein Anwendungsgebiet für leistungsstarke Grafikkarten, doch das "tiefgehend" fehlt hier völlig. Deshalb fehlt der Bezug zu Einsatzgebieten, die wir mit GPUs wie Fiji und GP100 verbinden.
So nennt der Wikipedia- Artikel über Deep Learning auch zurecht keines dieser Anwendungsfelder, die bereits vor dem Hype um Deep Learning entstanden sind, ohne dass man je an Deep Learning dabei gedacht hätte.

Trotzdem ist die gleichmäßige Verteilung von Last auf GPU, CPU, RAM, VRAM, Caches - also die gebündelte Verwendung heterogener Ressourcen in einem Programm - eines der zentralen Themen in der Zukunft, was sich mit der Heterogeneous System Architecture(HSA) im Zusammenspiel mit der ROCm- Plattform von AMD auch deutlich abzeichnet.

Wenn die Aussage von Nvidia darauf abzielt, die Bedeutung von GPUs als preisgünstigen und hochverfügbaren CoProzessor in den Vordergrund zu rücken, ist schonmal der Zweck richtig. Nur die "Verpackung" für den Leser/Zuhörer ist dann irreführend, denn mit Deep Learning hat das nichts zu tun.
 
Ähh, lies nicht nur die erste Zeile des Wiki Artikels.
Deep Learning hat in der Praxis nichts mit "tiefergehendes Lernen" zutun, sondern bezieht sich auf sogenannte "deep neuronal networks".
Diese Versuchen den Teil unseres Gehirns nachzubilden, welches für logisches Denken verantwortlich ist.
"tiefer" heisst mehr Zwischenschichten (Layers) aus simulierten Neuronen und erhöht die benötigte Rechenleistung drastisch, so dass man GPUs braucht bzw. diese hilfreich sind.
Noch besser sind dedizierte Computingeinheiten. Solche hat Google extra für sich entwickeln lassen, wenn ich mich nicht irre.

Was würdest du denn eigentlich als tieferes Lernen bezeichnen?
Aus den Kursen über KI ist mir solch eine Begrifflichkeit nicht bekannt.
 
Ich gehe bei Deep Learning von einer sehr tiefen Rekursion mit sehr vielen Datensätzen aus, weit mehr als nötig ist, um ein einfaches Bild von 1080p auf 4K zu skalieren, was ja bereits Monitore mit einem integrierten, kleinen Chip ganz ordentlich beherrschen. Auch bei dem Entfernen von Objekten aus einem Photo, oder wie auf dem Bild, "Texture Multiplier" muss nur "gelernt" werden, welche Pixel in der Szene mit hoher Wahrscheinlichkeit neben anderen sind. Dabei ist auch zu beachten, dass die Resultate auch völlig Grütze sein können... sieht man ja auch, die Mauer sieht schon nach (höchstwahrscheinlich) einer einzigen Rekomposition bereits ziemlich kaputt aus und je öfter man vom ursprünglichen Bild abweicht, umso mehr Grütze entsteht. Besonders tief kann hier also noch nicht gelernt worden sein, da die Ergebnisse bei der Datendichte noch schwach sind ;)

Wenn man nun Millionen von Mauern abscannen würde, um exakte Parameter zum Erkennen von Mauern zu erhalten, dann ist das für mich Deep Learning, und wenn Du beispielsweise einen Captcha von Google bekommst, wo Du Straßenschilder und Geschäftsfronten erkennen musst, darfst Du jetzt dreimal raten, warum :d - Google braucht Dich zum Sammeln der Parameter, die logischerweise aktuell in der Automobilindustrie sehr gefragt sind. Früher waren es einfache Zahlen und Buchstaben - heute ist man mit den Schildern eben einen Schritt weiter, jedoch muss man Straßenschilder von anderen Schildern etc. unterscheiden können, da es sonst fatale Folgen haben könnte.
Wenn Du (und noch mehr Leute)also ein Straßenschild nicht erkennst, was die Google- Rechenzentren als eines erkannt haben, wird das Bild als fehlerhaft erkannt getagged und das Pattern rekompiliert, was zum Erkennen der Schilder nötig ist(jedenfalls würde ein anderes Vorgehen keinen Sinn machen), sodass nicht nur dieses Bild korrekt erkannt wird, und die anderen, als korrekt erkannt markierten Bilder, weiterhin korrekt erkannt bleiben. Also im Prinzip wird, abstrakt betrachtet, eine Rechenvorschrift gebildet, die diese beiden Mengen vereint.

Ein Mensch lernt ja aufgrund des Wissens, was die anderen Gegenstände in einer Szene sind, extrem schnell(mit seinem eigenen Hochleistungs- Neuronal-Netz(Gehirn) ;)), neue Gegenstände zu identifizieren. Somit macht es auch Sinn, Seen, Bäume etc. zu erkennen, um bereits diese häufig auftretenden Objekte bei der Erkennung ausschließen zu können.

Du siehst also, dass diese einfachen Bildoperationen, die Nvidia hier nennt, eben für meine Begriffe nur im allerweitesten Sinne was mit Deep Learning zu tun haben, auch wenn Bildverarbeitung im komplexeren Rahmen hier große Überschneidungen hat(Zum Beispiel in der Form, wie Google es macht).
 
Zuletzt bearbeitet:
Was heiß denn realistischer?
Dem Trend der letzten 10 Jahre nach ja scheinbar immer dümmere KI, die selbst in den absolut realistischen Schlauchlevels schon massiv überfordert ist.
 
@oooverclocker
Dieses "deep learning" ist einfach kein richtig technischer Begriff. Ebensowenig wie "tieferes Lernen". Ist beim Menschen etwa irgendwo die Rede von "dieses Kind lernt nun tief"?
Es ist ein Medienbegriff und bezieht sich wie gesagt auf den Algorithmus. WAS man nun damit lernt , also im Sinne von, was das Resultat sein soll, ist irrelevant. Du kannst mit neuronalen Netzen sehr gut Klassifikationen bauen, bzw. das ist es was du beschreibst. Das System teilt am Ende zwischen Straßenschild und kein Straßenschild.
Nun ist ein tieferes neuronales Netz, in der Lage genauer einzuteilen, oder weiter zu differenzieren (unterschiedliche Straßenschilder).

Die Datensätze die durch diese Capchas vom Menschen generiert werden, dienen übrigens direkt dem Lernen. Damit werden die simulierten Neuronen eingestellt in einem "überwachten Lernverfahren".
Man unterscheidet solche Lernverfahren bei denen der gegebene Datensatz bereits klassifiziert ist (z.B. Straßenschild oder kein Straßenschild") von "unüberwachten" wo das Verfahren selbstständig lernt dass es schlichtweg einen Unterschied zwischen einem Bild mit Schild und einem ohne gibt, ohne zu "wissen" was, was ist (das ist manchmal besonders interessant, denn dabei sind schon Ergebnisse in Form von Unterscheidungskriterien erziehlt worden die dem, durch Erfahrung "vorbelasteten" Menschen garnicht auffallen würden).
Solch ein Verfahren eignet sich aber für Bilder eher mittelmäßig wenn die relevante Komponente (das Schild), nur einen kleinen Teil einnimmt.
Für überwachtes Lernen braucht man aber nun einen entsprechenden, möglichst großen, klassifizierten Datensatz und das ist es was durch die Capchas generiert wird.
Z.B. durch "Backpropagation" wird dieser Datensatz dann angewendet um die neuronen einzustellen.


Was heiß denn realistischer?
Dem Trend der letzten 10 Jahre nach ja scheinbar immer dümmere KI, die selbst in den absolut realistischen Schlauchlevels schon massiv überfordert ist.
Lies dir mal was zur KI von Starcraft 2 durch! Die ist ein gutes Beispiel für top KIs. Bei der wurde auch schon automatisiert vom Menschen gelernt (wobei soweit ich weis nicht mit solchen Netzwerken sondern mit trivialeren Taktik-Modelierungen).

Realistsich heisst übrigens nicht automatsich fehlerfrei. Sie soll menschlich wirken.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh