逆強化学習の基礎、手法選択と応用

再開催を依頼する / 関連するセミナー・出版物を探す
オンライン 開催

日時

中止

プログラム

  1. 第1部 逆強化学習の基礎知識
    1. マルコフ決定過程
      1. 平均とマルコフ性 (MP)
      2. 逐次平均表現とMP
      3. マルコフ報酬過程
      4. マルコフ決定過程
    2. Bellman方程式の導出
      1. 平均から決定型Bellman方程式の導入
      2. 平均表現と価値関数の導入
      3. 確率型Bellman方程式の導出
        1. 行動状態価値関数の導入
        2. 確率型ベルマン方程式の導出
        3. 遷移確率関数 T (r ( S’) , S‘│s,a ) の極意
        4. グリッドワード問題の応用
    3. 動的計画法
      1. ε = 1 – Greedy反復方策
      2. ε = 0 – Greedy方策反復法 (On – Policy)
      3. ε = 0 – Greedy価値反復法 (Off – Policy)
    4. 逆強化学習の基本概念の導入
      1. 報酬関数の定義
      2. 報酬関数による価値関数の推定
  2. 第2部 逆強化学習の解法:線形計画最適化逆強化学習手法
    1. 線形計画最適化逆強化学習手法の導入
    2. 線形計画逆強化学習手法の定式化
    3. 線形計画逆強化学習手法のコーディング要領
    4. 線形計画逆強化学習手法の応用事例の紹介
  3. 第3部 逆強化学習の解法:最大エントロピー逆強化学習手法
    1. 関数近似の基本概念
    2. 関数近似モデルを用いた報酬の表現
    3. 機械学習による報酬関数の回帰
    4. 最大エントロピーを取り入れた報酬誤差関数の設計
    5. 熟練者による行動確率教師データの生成
    6. 最大エントロピー逆強化学習手法のコーディング要領
    7. 最大エントロピー逆強化学習手法の応用事例の紹介
  4. 第4部 逆強化学習の解法:深層NN最大エントロピー逆強化学習手法
    1. 深層NN (neural network) の導入
    2. 深層NN最大エントロピーを取り入れた報酬誤差関数の設計
    3. 熟練者による状態頻度教師データの生成
    4. 深層NN最大エントロピー逆強化学習手法のコーディング要領
    5. 深層NN最大エントロピー逆強化学習手法の応用事例の紹介
  5. 第5部 逆強化学習の展望と関連技術の紹介

受講料

複数名同時受講割引について

アカデミック割引

日本国内に所在しており、以下に該当する方は、アカデミック割引が適用いただけます。

ライブ配信セミナーについて