世界トップのプロ囲碁棋士に見事に勝利したAlphaGoの出現により、日本を含め世界中でAIに対する期待が高まっています。このAlphaGoの歴史的な勝利を支えた手法、すなわち「深層強化学習手法」が一躍注目を集めています。
AIの研究や将来のビジネスチャンスを踏まえたAIの応用を真剣に検討されている方にとっては、深層学習の先にある「深層強化学習手法」の基本原理をしっかり理解することがマストといえるでしょう。しかし現状としては、深層強化学習手法をわかりやすく説明している資料はなかなか見当たりません。
本セミナーはこのような現状を踏まえ、深層強化学習の最も基本となる強化学習の中核的な内容を例題と「動画」を通して、みなさんになるべくわかりやすく説明します。
さらに本セミナーでは、難解といわれる「深層強化学習」をよりわかり易く理解するために、まず「簡易型の線形回帰近似モデル」を応用した強化学習手法を簡易デモなどを用いてわかりやすく説明します。これによりニューラルネットワーク近似モデルを使用する深層強化学習への理解が更に深まることを期待します。最後に、逆深層強化学習という強化学習報酬関数を学習する手法の原理と応用技法について説明します。
様々な背景を持つ受講者のみなさんが理解しやすく、実際に役立てられるように講義内容の難易度を調整しています。本セミナーを通して、現在、話題の深層学習の先にある「深層強化学習」の基本知識と応用情報を入手し、是非、研究やビジネスに活用して頂ければ幸いです。
- 第1部 はじめに
- 強化学習の基本概念
- 強化学習・深層学習および深層強化学習の特徴と違い
- 深層強化学習により可能となること
- 多腕バンディット問題をわかりやすく説明
- 強化学習における探索と利用のジレンマ
- 多腕バンディット問題の解法をわかりやすく説明
- 平均報酬という概念について
- 平均報酬を更新するための式の導きかた
- Epsilon-greedy
- 最適初期値設定法
- UCB1
- Bayesian/Thompson 法の詳細
- 簡易デモ (python) :Gridworld (上記4種類解法の実行:直感的に理解する)
- 第2部 基本概念-マルコフ決定過程 (MDP) の基本原理のポイント
- 確率過程
- マルコフ性とは
- マルコフ鎖とは
- MDPの定義と式の導き方
- 方策πの定義と価値関数の対応関係
- 状態価値関数[V (s) ]におけるベルマン方程式をわかりやすく説明
- 状態行動価値関数[Q (s,a) ] におけるベルマン方程式をわかりやすく説明
- 簡易演習デモ (python) 1:Gridworld (式を理解するために)
- 最適状態価値関数V* (s) のポイント
- 最適状態行動価値関数Q* (s,a) のポイント
- 最適状態価値関数V* (s) と最適状態行動価値関数Q* (s,a) の相互関係
- ベルマン最適性方程式の導きかた
- 簡易デモ (python) 2:Gridworld (式を理解する)
- ディスカッション:最適性と近似性について
- 第3部 中核:強化学習におけるMDP問題の解法
- 動的計画法の解説と入門:
- 反復法による価値関数を求める:ランダム方策 vs 固定方策
- 最適な方策の探索手法をわかりやすく説明
- 方策反復法による最適状態価値関数を求める
- 遷移確率を考慮した方策反復法による最適状態価値関数を求める
- 価値反復法による最適状態価値関数を求める
- 簡易デモ (python) :Gridworld (4種類解法の実行と結果比較:概念を理解する)
- Monte-Carlo (MC) 法をわかりやすく解説
- モデル法とモデルフリー法のちがい
- 経験に基づく学習手法のポイント
- MC法と多腕バンディットの内在関連性
- 状態価値関数・行動状態価値関数と平均報酬との関係
- MC法による状態価値関数の求め方とポイント
- MC法による最適状態行動価値関数Q (s,a) の求め方とポイント
- 簡易デモ (python) :Gridworld (2種類MC法の実行と比較:概念を理解する)
- TD学習手法のポイントと入門
- TD (0) 法の説明と式の導きかた
- SARSA法の説明と式の導きかた
- Q-学習法の説明と式の導きかた
- On-PolicyとOff-Policyを詳しく説明
- 簡易デモ (python) :Gridworld (3種類TD法の実行と比較:概念を理解する)
- 第4部 拡張ー強化学習における関数近似手法とは (入門編)
- Tabular法 (表形式手法) と近似解法の違い
- 回帰モデルと誤差関数をあらためて復習
- 簡単な線形回帰モデルに基いたMC法による状態価値関数V (s,θ) を求める
- 簡単な線形回帰モデルに基いたSARSA法によるV (s,θ) を求める
- 簡易デモ (python) :Gridworld (回帰近似MDP解法の実行:直感的理解)
- 第5部 最前線:深層強化学習の基本概念と最重要ポイント
- 簡易型ニューラルネットワークを応用したQ-学習手法の説明
- 深層Q-学習 (DQN) の基本ポイント
- 連続動作空間における強化学習のポイント
- 方策勾配法の基本と式の導き方
- ガウシアン型行動確率分布の導入
- 方策勾配法による連続動作空間における強化学習の簡易説明
- 深層Actor-Critic法の基本と実行のコツ
- 簡易実演デモ (python) : Mountain car, Cartpole, Atariなど (概念の理解)
- 第6部 逆強化学習の基本概念と最重要ポイント
- 逆強化学習の解法:線形計画最適化逆強化学習手法
- 逆強化学習の解法:最大エントロピー逆強化学習手法
- 逆強化学習の解法:深層NN最大エントロピー逆強化学習手法
- 第7部 応用:強化学習と深層強化学習及び逆強化学習の応用事例
案内割引・複数名同時申込割引について
R&D支援センターからの案内登録をご希望の方は、割引特典を受けられます。
案内および割引をご希望される方は、お申込みの際、「案内の希望 (割引適用)」の欄から案内方法をご選択ください。
複数名で同時に申込いただいた場合、1名様につき 23,139円(税別) / 24,990円(税込) で受講いただけます。
- R&D支援センターからの案内を希望する方
- 1名様でお申し込みの場合 : 1名で 43,750円(税別) / 47,250円(税込)
- 2名様でお申し込みの場合 : 2名で 46,278円(税別) / 49,980円(税込)
- 3名様でお申し込みの場合 : 3名で 69,417円(税別) / 74,970円(税込)
- R&D支援センターからの案内を希望しない方
- 1名様でお申し込みの場合 : 1名で 46,278円(税別) / 49,980円(税込)
- 2名様でお申し込みの場合 : 2名で 92,556円(税別) / 99,960円(税込)
- 3名様でお申し込みの場合 : 3名で 138,833円(税別) / 149,940円(税込)