閱讀782 返回首頁    go 機器人


《星際爭霸2》人工智能研究環境 SC2LE 初體驗

雷鋒網按:本文原作者Flood Sung、杜克,原文載於作者的知乎專欄——智能單元,雷鋒網經授權發布。

1 前言

2017年8月10號,DeepMind聯合暴雪發布了星際爭霸2人工智能研究環境SC2LE,從而使人工智能的研究進入到一個全新的階段。這次,研究人工智能的小夥伴們可以邊玩遊戲邊做研究了。

為了讓更多的朋友了解SC2LE研究環境,我們在第一時間對其進行安裝測試,並對DeepMind發布的pysc2代碼進行分析,初步了解基於pysc2的RL開發方法。下麵我們將一一進行介紹。

2 測試使用設備

Macbook Pro 13inch (MacOS Sierra)

Alienware 13inch (Ubuntu 14.04)

3 安裝方法

3.1 Mac環境下的安裝

(1)安裝pysc2

pip install pysc2

如果權限不夠,就加上sudo:

sudo pip install pysc2

程序會自動安裝各種依賴:

Installing collected packages: google-apputils, pygame, future, pysc2

Successfully installed future-0.16.0 google-apputils-0.4.2 pygame-1.9.3 pysc2-1.0

(2)然後在國服下載mac版的星際爭霸客戶端:https://www.battlenet.com.cn/account/download/,mac版的,然後安裝,30個G,3.16.1版本。

(3)下載完畢可以運行遊戲就OK

(4)下載Map Packs,mini-game和replay:Blizzard/s2client-proto,https://github.com/deepmind/pysc2/releases/download/v1.0/mini_games.zip

(5)進入星際爭霸2的目錄

(6)創建Maps文件夾

(7)將Map Packs和mini-game壓縮包都解壓到Maps目錄下,密碼是iagreetotheeula

(8)打開終端,輸入python -m pysc2.bin.agent --map Simple64進行測試。

下麵為示意圖:

<img src="https://static.leiphone.com/uploads/new/article/pic/201708/4df0d743f23353e59fd6c2a9c0b7ba79.jpg" data-rawwidth="1600" data-rawheight="1000" class="origin_image zh-lightbox-thumb" width="1600" data-original="https://pic3.zhimg.com/v2-c6e24843a8e9d7f1ab76c3da7685a886_r.jpg" _src="https://static.leiphone.com/uploads/new/article/pic/201708/4df0d743f23353e59fd6c2a9c0b7ba79.jpg"/>

<img src="https://static.leiphone.com/uploads/new/article/pic/201708/6749d6caff9c0d2c67f362969c90738c.png" data-rawwidth="768" data-rawheight="480" class="origin_image zh-lightbox-thumb" width="768" data-original="https://pic4.zhimg.com/v2-ffdb4c3e9dd1c4f0fbcacfd8bf45c113_r.png" _src="https://static.leiphone.com/uploads/new/article/pic/201708/6749d6caff9c0d2c67f362969c90738c.png"/>

大家可以看到在Mac下既顯示了原始的遊戲畫麵,又顯示了feature的畫麵

3.2 Ubuntu環境下安裝

(1)安裝pysc2 (和Mac相同)

sudo pip install pysc2

(2)下載Linux版本的星際2:Blizzard/s2client-proto並解壓在Home目錄下,解壓密碼:iagreetotheeula

(3)下載Map Packs,mini-game:Blizzard/s2client-proto,https://github.com/deepmind/pysc2/releases/download/v1.0/mini_games.zip。將文件解壓到~/StarCraft2/Maps 下。

(4)打開終端,輸入python -m pysc2.bin.agent --map Simple64進行測試。

下麵為兩個不同地圖的示意圖:

Linux下沒有原始遊戲畫麵。

<img src="https://static.leiphone.com/uploads/new/article/pic/201708/c8cfdb2d09c4d35239670c675a3ca989.png" data-rawwidth="1440" data-rawheight="707" class="origin_image zh-lightbox-thumb" width="1440" data-original="https://pic1.zhimg.com/v2-b80ac969c618ed2e9b29433b1fe8a6e8_r.png" _src="https://static.leiphone.com/uploads/new/article/pic/201708/c8cfdb2d09c4d35239670c675a3ca989.png"/>

<img src="https://static.leiphone.com/uploads/new/article/pic/201708/168e6acf055f54f0a3623ea05119bb08.png" data-rawwidth="1440" data-rawheight="707" class="origin_image zh-lightbox-thumb" width="1440" data-original="https://pic3.zhimg.com/v2-23676bd7583d6dab05b53b902c7dfcee_r.png" _src="https://static.leiphone.com/uploads/new/article/pic/201708/168e6acf055f54f0a3623ea05119bb08.png"/>

4 測試

(1)基本測試

python -m pysc2.bin.agent --map Simple64

(2)更改Map如使用天梯的Map

python -m pysc2.bin.agent --map AbyssalReef

注意天梯的Map 名稱沒有LE!

(3)不使用agent,手動玩!

python -m pysc2.bin.play --map MoveToBeacon

(4)使用特定agent來玩(比如MoveToBeacon這個mini game)

python -m pysc2.bin.agent --map MoveToBeacon --agent pysc2.agents.scripted_agent.MoveToBeacon

(5)播放replay

python --m pysc2.bin.play --replay

5 如何進行RL開發

前麵隻是安裝,到這裏才是最關鍵的。要知道如何進行RL開發,要首先知道pysc2的代碼是如何運行的。

在上一小結測試中,我們看到第四種可以指定agent。所以,我們可以自己編寫一個agent文件,從而使得環境運行我們自己的agent:

python -m pysc2.bin.agent --map--agent

那麼如何來編寫這個agent呢?

pysc2的代碼中為什麼構建了一個BaseAgent,我們隻需要在BaseAgent的基礎上,構造一個新的agent的類,然後在裏麵的step函數中實現我們的RL算法即可。

基本的程序架構如下:

from __future__ import absolute_import

from __future__ import division

from __future__ import print_function

import numpy

from pysc2.agents import base_agent

from pysc2.lib import actions

from pysc2.lib import features

class OurAgent(base_agent.BaseAgent):

  def step(self, obs):

      super(OurAgent, self).step(obs)

  #----------------------------------#

   RL Algorithm Here

    #----------------------------------#

      return action

其中obs包含所有的觀察信息,包括feature maps,reward及可執行動作actions等信息。step這個函數的目標是輸出動作給環境執行。RL算法需要處理obs然後輸出action。

我們來看一下pysc2提供的MoveToBeacon的非智能算法:

from __future__ import absolute_import

from __future__ import division

from __future__ import print_function

import numpy

from pysc2.agents import base_agent

from pysc2.lib import actions

from pysc2.lib import features

_PLAYER_RELATIVE = features.SCREEN_FEATURES.player_relative.index

_PLAYER_FRIENDLY = 1

_PLAYER_NEUTRAL = 3  # beacon/minerals

_PLAYER_HOSTILE = 4

_NO_OP = actions.FUNCTIONS.no_op.id

_MOVE_SCREEN = actions.FUNCTIONS.Move_screen.id

_ATTACK_SCREEN = actions.FUNCTIONS.Attack_screen.id

_SELECT_ARMY = actions.FUNCTIONS.select_army.id

_NOT_QUEUED = [0]

_SELECT_ALL = [0]

class MoveToBeacon(base_agent.BaseAgent):

  """An agent specifically for solving the MoveToBeacon map."""

  def step(self, obs):

    super(MoveToBeacon, self).step(obs)

    if _MOVE_SCREEN in obs.observation["available_actions"]:

       player_relative = obs.observation["screen"][_PLAYER_RELATIVE]

       neutral_y, neutral_x = (player_relative == _PLAYER_NEUTRAL).nonzero()

       if not neutral_y.any():

          return actions.FunctionCall(_NO_OP, [])

       target = [int(neutral_x.mean()), int(neutral_y.mean())]

       return actions.FunctionCall(_MOVE_SCREEN, [_NOT_QUEUED, target])

    else:

       return actions.FunctionCall(_SELECT_ARMY, [_SELECT_ALL])

我們可以看到,上麵的代碼直接獲取了beacon的位置信息(neutral_y,neutral_x),從而直接給出動作。但是為了使用RL算法,我們需要獲取feature map的圖像信息。然後我發現上麵代碼中的player_relative就是圖像信息,可以直接通過opencv或者plt輸出顯示。如下圖最右邊的顯示:

<img src="https://static.leiphone.com/uploads/new/article/pic/201708/9f2384ee97925fe9ef6ef71e2493993e.png" data-rawwidth="1835" data-rawheight="708" class="origin_image zh-lightbox-thumb" width="1835" data-original="https://pic4.zhimg.com/v2-ac5cae8cc97debc8cd83f88f0e15b913_r.png" _src="https://static.leiphone.com/uploads/new/article/pic/201708/9f2384ee97925fe9ef6ef71e2493993e.png"/>

下麵總結一下state , action, reward的獲取方式:

(1)state,也就是各種feature map,通過obs.observation["screen"][feature_map_name] 獲取

(2)action,可以使用的action,通過obs.observation["available_actions"] 獲取

(3)reward,通過obs.reward獲取。

知道這些RL關鍵信息的獲取,我們也就可以編寫RL代碼來玩星際2的小任務了。

值得注意的是,星際2的動作actions非常複雜,pysc2把動作封裝成帶參數的函數。比如上麵的Move動作,需要target目標位置的2維參數。所以,如果輸出動作是一個複雜的問題。官方的論文中使用了auto-regressive自回歸的方式,也就是先輸出Move這個動作,然後在此基礎上再輸出target,從而形成完整的動作,最後輸出。

5 小結

本文對SC2LE進行了初體驗,包括安裝,測試和RL開發的代碼研究。整體來看,DeepMind這次聯合暴雪確實做了非常精良的代碼工作,SC2LE有以下幾個優點:

對於API封裝得很好,可以非常方便的進行RL開發

直接提供了Feature Map信息方便卷積神經網絡CNN的使用。

跨平台支持,特別是對Linux平台的支持,非常方便廣大深度學習開發者的使用。

提供Replay數據庫及Replay接口,為進行imitation learning模仿學習的研究提供了極大的方便。

提供了Mini Game,方便大家從簡單入手。

提供了天梯地圖,滿足大家挑戰高難度的欲望!

總的來說,SC2LE真的是非常友好的一個研究平台,值得大家入手研究,也相信未來會有越來越多的人工智能玩星際2的成果出來!

最後更新:2017-08-23 10:57:27

  上一篇:go 人工智能時代,談人口危機已經顯得落伍且滑稽
  下一篇:go 施水才:人工智能的投資機會有這些