> > > > Googles künstliche Intelligenz lernt Starcraft II

Googles künstliche Intelligenz lernt Starcraft II

Veröffentlicht am: von

Mit dem Sieg einer künstlichen Intelligenz über einen Profi-Go-Spieler wurde eine neue Ebene in diesem Bereich erreicht. Besonders beeindruckend für alle Beobachter war dabei, auf welche Art und Weise Googles künstliche Intelligenz DeepMind den Go-Spieler besiegt hat. Ähnlich wie im Schach gibt es bei Go bestimmte Spielzüge, die sich über die Jahre etabliert haben. DeepMind ging aber unorthodoxe Wege und überraschte seinen menschlichen Konkurrenzen damit.

Google will nun zusammen mit Blizzard eine Künstliche-Intelligenz-API für Starcraft II veröffentlichen. Ziel ist es eine Spielintelligenz aufzubauen. Das Deep-Learning-Netzwerk soll dabei aus eigenen Spielen lernen, aber auch auf solche von menschlichen Gegnern zurückgreifen. Blizzard stellt daher eine Schnittstelle zur Verfügung, die eine Datenbank mit zahlreichen Spielen der Vergangenheit beinhaltet. Auch dieser Ansatz ist bereits durch die Go-Spiele bekannt. DeepMind setzte hier zwei Deep-Learning-Netzwerke ein: Eines, welches sich selbst trainierte und eines, welches aus alten Spielen lernte.

Ein weiterer Teil der Schnittstelle ist der Zugriff auf Kartenausschnitte aus dem Spiel heraus und ein Rückkanal für die Übertragung von Steuerbefehlen. Bereitgestellt werden soll die API im ersten Quartal 2017. Laut Google und Blizzard handelt es sich aber nur um einen ersten Schritt, an den noch keine allzu hohen Erwartungen gestellt werden sollten.

Die Herausforderungen bei Starcraft II seien im Vergleich zu Brettspielen weitaus größer. Spiele wie Schach und Go spielen sich auf einem fest definierten Spielfeld ab. Die Bewegungen und Züge sind in gewisser Weise vorgegeben. Partien in Starcraft II sind aber weitaus komplizierter, da die Karte zunächst einmal erkundschaftet werden muss, um den eigenen Bewegungsspielraum zu kennen. Strategien müssen auch weiträumiger geplant werden, um bestimmte Einheiten bauen zu können, mit denen beispielsweise auf Einheiten des Gegners reagiert werden kann. In gewisser Weise ist dies auch bei Go der Fall, die Ebenen der Freiheit des Spielers sind aber noch einmal weitaus größer und machen es damit komplizierter.

Sowohl Google wie auch Blizzard erhoffen sich durch eine Starcraft-II-KI Erkenntnisse in gewissen Bereichen. Google will natürlich die eigene KI weiter entwickeln. Blizzard erhofft sich Erkenntnisse für die Entwicklung neuer Spiele und das Balancing zu erlangen. Bisher ist dies nur durch manuelle Tests möglich, was tausende an Spielstunden verlangt. Bei den KIs könnte man einfach hunderte oder gar tausende Spiele gleichzeitig ablaufen lassen.

Wie ein solches Spiel aussehen könnte, hat Google in einem Video veröffentlicht. Darin ist erkennen, auf Basis welcher Parameter die KI bestimmte Entscheidungen fällt. Ob und wann es auch zu Showmatches zwischen der KI und Profispielern kommen wird, muss sich aber nach der Veröffentlichung der KI und den ersten Erfahrungen damit noch zeigen. Früher oder später wird aber auch diese Bastion fallen. Google setzt eigens entwickelte Hardware ein, um seine eigenen Deep-Learning-Netzwerke zu trainieren.