第T部 |
導入編 |
第1章 コンピュータ将棋について |
|
第U部 |
理論編 |
第2章 コンピュータ将棋のアルゴリズム
第3章 コンピュータ囲碁のアルゴリズム
第4章 AlphaGoの手法
第5章 ディープラーニングについて |
|
第V部 |
実践編 |
第6章
ディープラーニングフレームワーク
第7章 方策ネットワーク(policy network)
第8章 将棋AIの実装
第9章 学習テクニック
第10章 価値ネットワーク(value network)
第11章 学習テクニック その2
第12章 モンテカルロ木探索
第13章 さらに発展させるために |
|
・参照文献
・【付録】 Linuxでのインストール手順
◆内容紹介
将棋プログラムの作成を通してディープラーニングをより深く理解できる。
2016年3月、プロ棋士に勝つには後10年かかると言われていたコンピュータ囲碁でDeepMindが開発したAlphaGoがトップ棋士に勝利しました。そのAlphaGoで使われた手法がディープラーニングです。
AlphaGoでは局面を「画像」として認識し打ち手の確率と局面の勝率を予測することで、次の打ち手を決めています。画像とは具体的にどのようなものか、次の打ち手をどうやって決めるのか?AlphaGoの論文をヒントに、ディープラーニングを使い棋譜を学習した将棋AIの開発を行います。強化学習のみでトップレベルの強さを持つAlphaZeroで用いられた手法についても取り入れています。
[導入編]では、コンピュータ将棋の歴史とディープラーニングの関係、コンピュータ将棋の大会の概要と参加方法について紹介します。
[理論編]では、実装する将棋AIの前提となる理論について解説します。従来のコンピュータ将棋のアルゴリズム、コンピュータ囲碁で用いられているモンテカルロ木探索とAlphaGoがどのようにディープラーニングを応用したか。基礎的な知識について解説しつつ、これらを将棋AIに応用する方法について述べます。
[実践編]では、ディープラーニングを使った、実際に対局できる以下の3つの将棋AIについて、PythonとChainerで実装していきます。
方策ネットワーク(policy network)を使って指し手の予測のみでプレイするAI。
価値ネットワーク(value network)を使って1手探索を行うAI。
方策ネットワークと価値ネットワークを使ってモンテカルロ木探索を行うAI。
最後に、より強い将棋AIを作りたいという方のために、ヒントとなる情報を紹介します。
|