DeepMind-AI besiegt Starcraft-Profis 10:1

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.979
deepmind.jpg
Fast alle größeren Unternehmen arbeiten in irgendeinem Bereich mit künstlichen Intelligenzen. Die Google-Tochter DeepMind will Machine-Learning-Anwendungen in die verschiedensten Bereiche einbringen. Bereits seit einiger Zeit arbeitet man an ML-Netzwerken, die in Spielen ein taktisches Verständnis entwickeln sollen. Dabei gehen die Algorithmen einen Schritt weiter als Systeme, die in Brettspielen wie Schach oder Go schon längst auch die stärksten menschlichen Gegner schlagen.Bereits seit Jahren bieten...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein elftes Spiel wurde von MaNa gewonnen. Hier wurde AlphaStar hinsichtlich der Möglichkeit die eigenen Einheiten zu beobachten auf das "Fenster" eingeschränkt, welches auch wirklich auf dem Bildschirm sichtbar war. Die API wurde also dahingehend eingeschränkt, wie ein menschlicher Spieler das Geschehen primär wahrnimmt.
Aha, sobald man der KI ihren unfairen Vorteil nimmt, ist sie also nicht mehr in der Lage gegen einen menschlichen Spieler zu gewinnen...
Mal wieder ein schönes Beispiel dafür, wie gehyped alles rund um das Thema KI aktuell ist.
 
eine ki hat prsktisch unendlich rechenzeit jede sekund um heden schritt 3 mal durchzugehen, ein mensch macht es während der laufzeit.
 
Aha, sobald man der KI ihren unfairen Vorteil nimmt, ist sie also nicht mehr in der Lage gegen einen menschlichen Spieler zu gewinnen...
Mal wieder ein schönes Beispiel dafür, wie gehyped alles rund um das Thema KI aktuell ist.

Das muss man schon differenzieren und leider bleiben nach dem Artikel folgende Frage offen:

1. Durfte die KI in Match 11 dann trotzdem auf Information von der Minimap zugreifen?
2. Hat die KI in Match 11 "vergessen" was ausserhalb Ihres Sichtbereichs passiert?
3. Wurden in den 10 Matches davor Einheiten wargenommen und gesteuert die ausserhalb des warnehmbaren Bereichs lagen?

Ein menschlicher Spieler vergisst ja auch nicht was ausserhalb des Screens liegt und hat auch über die Minimap komprimierte Informationen über das was auf dem Spielfeld passiert.
 
Aha, sobald man der KI ihren unfairen Vorteil nimmt, ist sie also nicht mehr in der Lage gegen einen menschlichen Spieler zu gewinnen...
Mal wieder ein schönes Beispiel dafür, wie gehyped alles rund um das Thema KI aktuell ist.

Und was passiert, wenn die KI nicht mit 277 Aktionen pro Minute, sondern (wie der Mensch) 559 tätigt?
Also praktisch Waffengleichstand.
 
Starcraft spielen selbst die Profis nicht "perfekt". Sie kommen nur näher an die perfekte Spielweise ran. Wer das Spiel kennt, weiß was ich meine.
Von daher halte ich das Spiel schlecht geeignet für KI gegen Mensch-Vergleiche.

@Syrus:
Äpfel und Birnen... Der Sinn ist ja, dass eine KI nicht an menschliche Grenzen gebunden ist, sondern weit darüber hinaus kommt. Und einer Runde eines Spiels eines Genres einer Einstellung in der KI festzumachen wie gehyped das gesamte Thema KI ist, für das Niveau muss ich Limbo-Tanzstunden nehmen.
 
Aha, sobald man der KI ihren unfairen Vorteil nimmt, ist sie also nicht mehr in der Lage gegen einen menschlichen Spieler zu gewinnen...
Mal wieder ein schönes Beispiel dafür, wie gehyped alles rund um das Thema KI aktuell ist.

In realen Szenarien macht man die KI aber nicht künstlich schlechter, damit es "fair" ist.
Oder soll man z.B. beim autonomen Fahren auch nur zwei Kameras nutzen, weil der Mensch nur zwei Augen hat?
Und er Abstand zu Objekten soll auch nur grob geschätzt und nicht durch Sensoren Millimeter genau erfasst werden, weil der Mensch Abstände nur grob schätzen kann?

Wie man das als Beweis sehen kann dass KI gehyped wird, kann ich absolut nicht nachvollziehen.
 
Es gibt da natürlich tausend Stellschrauben, jedenfalls sehr interessant was da passiert.
 
Sehr interessant fand ich wie "menschlich" die KI gespielt hat. Vermutlich wird man sich dafür der ganzen Stellschrauben bedient haben. Meinen Respekt auf jeden Fall das Niveau so gut balancen zu können um den menschlichen Spielern reale Chancen einzuräumen.
10:1 klingt eindeutig, aber die Spiele waren teils sehr knapp.
 
TLO hat Protoss gespielt, also nicht gerade seine favorisierte Rasse ;)
Das MaNa alle aufgezeichneten Spiele verloren hat, hätte ich nicht gedacht. Auch war die Spielweise der AI super interessant.
 
Ohh Gott, lasst die Software ja nicht zu nah an Ersteller von Cheatsoftware heran, denn dann wäre dieses Spiel dem Untergang geweiht.
StarCraft (1+2) gehört zu meinen absoluten Lieblingsspielen, das hat schon genug mit Betrügern zu tun.
Ein elftes Spiel wurde von MaNa gewonnen. Hier wurde AlphaStar hinsichtlich der Möglichkeit die eigenen Einheiten zu beobachten auf das "Fenster" eingeschränkt, welches auch wirklich auf dem Bildschirm sichtbar war. Die API wurde also dahingehend eingeschränkt, wie ein menschlicher Spieler das Geschehen primär wahrnimmt.
Also ohne Cheats kommt die KI also nicht immer zum Sieg, gut zu wissen, fair wäre es nur wenn die KI nur das könnte was auch dem Spieler möglich ist, der Mensch kann nicht unzählige Einheiten auf der Karte manuell ständig befehle geben und wissen genau was wer tut.
Diese KI ist scheinbar gut darin zu Kontrollieren, aber sonst unterscheidet sie sich wohl kaum vom herkömmlichen schwersten KI im Spiel.
 
Ich finde die ganze Entwicklung grusselig. Irgedwie nähern wir uns immer mehr den Science-Fiction in denen wir nur knapp gegen fehlgesteuere KI-Netzwerk oder autonomen Roboter Gegner bestehen konnten. Die Warheit ist wohl wir hãtten keine Chance. Wir brauchen bald keine Menschen mehr als Entwickler, Spieler, Künstler, Arbeiter... Eigentlich wär die Welt ohne den Menschen am sichersten und alle anderen Lebewesen sowie der Natur würde es ohne uns besser gehen.
Zu disem Schluss kommt sicher auch irgenwann die KI und wird logisch wie sie ist vielleicht auch die nötigen Änderungen herbeiführen. Vorher sind wir aber alle schon längst arbeitslos. Mich fasziniert das auch alles, nicht falsch verstehen.. Aber ich hoffe inständig wir sind umsichtig genug bei diesem Thema und bedenken auch die weitreichenden Folgen.
 
Zuletzt bearbeitet:
Der Mensch schafft sich selbst ab, darum kreisen die Aliens um unseren Planeten, um das live mitzuerleben, die lachen sich sicher krumm ;)
 
Ein großes Problem mit "KI"- und Deep Learning-Systemen ist, dass teilweise sehr komplexe Sachverhalte durch Software gelöst werden. Das klingt schön, problematisch ist jedoch, dass bereits heute die Entscheidungen nicht nachvollzogen werden können und da es keine echte KI ist, kann die Software sich auch nicht zur Lösung äußern und den "Rechenweg" darstellen, der zur Lösung führt.
Man verlässt sich also auf etwas, von dem man ggf. nichts weiß und für das auch keiner so richtig verantwortlich ist.
 
Heute noch im Spiel.
Morgen schon auf dem realen Schlachtfeld?
Skynet lässt grüßen.
 
Wenn dann erst auf dem Schlachtfeld, ohne unser Wissen und danach
zum refinanzieren für den Privatmann in abgespeckter Version :)
 
Ein großes Problem mit "KI"- und Deep Learning-Systemen ist, dass teilweise sehr komplexe Sachverhalte durch Software gelöst werden. Das klingt schön, problematisch ist jedoch, dass bereits heute die Entscheidungen nicht nachvollzogen werden können und da es keine echte KI ist, kann die Software sich auch nicht zur Lösung äußern und den "Rechenweg" darstellen, der zur Lösung führt.
Man verlässt sich also auf etwas, von dem man ggf. nichts weiß und für das auch keiner so richtig verantwortlich ist.

Also ganz wie in der Politik, nur das der Weg der KI tatsächlich funktioniert :P
 
kann die Software sich auch nicht zur Lösung äußern und den "Rechenweg" darstellen, der zur Lösung führt.

Warum sollte das so sein?
Keine KI, an der ich bisher mitgewirkt habe hat dieses integrale "Feature" vermissen lassen.
Wo soll den das Problem sein die Parameter die zu einem Output führen auszugeben?
 
Aha, sobald man der KI ihren unfairen Vorteil nimmt, ist sie also nicht mehr in der Lage gegen einen menschlichen Spieler zu gewinnen...
Mal wieder ein schönes Beispiel dafür, wie gehyped alles rund um das Thema KI aktuell ist.
Der Part ist mir auch etwas unklar und konnte in der Quelle auch nichts näheres herauslesen.
Allerdings kommt man bei solchen Betrachtungen praktisch immer in das Dilemma was "unfair" ist. Wo hört man auf die KI zu vermenschlichen?
Bei SCII ist es ja so dass man durch die Minimap binnen 1-2 Frames überall auf der Karte rumspringen kann. Dann müsste die KI nur ständig springen und hätte auch so die gesamte Information. Das könnte ein Mensch rein theoretisch auch. In SCII kann man zudem ziemlich weit raus zoomen. Schränkt man dann die Sehfähigkeit der KI ein damit sie wie beim Menschen ist?
In Sachen Schwächung der KI könnte man alles erzielen was man will.
Darum ist die Betrachtung mit allen Vorteilen, noch die interessanteste, wenn man mich fragt. Die Linie würde ich bei prinzipiell nicht zugreifbaren Daten ziehen. Also z.B. bei der Position von Einheiten unterm FoW weil das Teil des Regelwerks des Spiels ist sozusagen.

Btw. es gibt auch Umsetzungen wo der Technik wirklich ein Videofeed gegeben wurde: MarI/O - Machine Learning for Video Games - YouTube


Ein großes Problem mit "KI"- und Deep Learning-Systemen ist, dass teilweise sehr komplexe Sachverhalte durch Software gelöst werden. Das klingt schön, problematisch ist jedoch, dass bereits heute die Entscheidungen nicht nachvollzogen werden können und da es keine echte KI ist, kann die Software sich auch nicht zur Lösung äußern und den "Rechenweg" darstellen, der zur Lösung führt.
Man verlässt sich also auf etwas, von dem man ggf. nichts weiß und für das auch keiner so richtig verantwortlich ist.
Unsinn. Nur weil die Medien für Laien es mehr oder weniger verständlicherweise aufgegeben haben, KIs exakt zu erklären, heißt dass nicht dass es wirklich unerklärbar ist.

Des weiteren sind, wie Betabrot angedeutet hat, die Entscheidungen von Menschen, ohne die entsprechenden Hintergrundinformationen ebenso oft unerklärbar von aussen betrachtet.

Wenn KI wirklich irgendwann für gesellschaftsrelevante Entscheidungen genutzt wird, wird man immerhin die Daten und Algorithmen öffentlich zugänglich machen was schon ein riesiger Fortschritt in Sachen Nachvollziehbarkeit wäre.
Natürlich wären solche Systeme aufgrund des Daten-Inputs auch nicht vollkommen vor Manipulation gefeit und es wird dann immer Gruppen geben die aufschreien werden, man hätte die falschen Daten verwendet.


Warum sollte das so sein?
Keine KI, an der ich bisher mitgewirkt habe hat dieses integrale "Feature" vermissen lassen.
Wo soll den das Problem sein die Parameter die zu einem Output führen auszugeben?
Richtig, auch wenn es nicht ganz so einfach ist. Der "Rechenweg" muss in einer, für den Menschen verständlichen Form sein und nicht nur eine ellenlange Reihe von Rechenoperationen.

Trotzdem, KIs haben ihre Entwickler zwar gelegentlich überrascht, aber am Ende sind sie immer dahinter gekommen warum die KI so "denkt" wie sie "denkt".
Bei Image-Recognition Systemen hat man z.B. die "shapes" extrahieren können die das Netzwerk selbstständig erlernt hat. Das konnte man dann sogar wieder in einen output leiten wodurch faszinierende Videos wie dieses entstand: LSD/ACID Trip Simulation [POV] - YouTube (finde grad das Original mit Erklärung und Github Link nicht ><' )
Auf jeden Fall sind KIs keine Black Boxes für die Forscher. Sonst könnten sie sie garnicht weiter entwickeln!
Deswegen weiss man auch dass wir noch sehr weit weg von KIs sind die Bewusstsein haben oder dergleichen. Es sind rein analytische Systeme.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh