逆強化学習の基礎と発展

再開催を依頼する / 関連するセミナー・出版物を探す
オンライン 開催

本セミナーでは、逆強化学習の応用事例を紹介したうえで、逆強化学習の理解につながる、機械学習や強化学習の基礎から説明し、そのうえで逆強化学習の数理的な問題設定、さらに、本研究分野の発展に寄与するいくつかのアルゴリズムを紹介いたします。

日時

開催予定

プログラム

逆強化学習は統計を基盤とした機械学習と最適制御の学際領域を担う、近年発達著しい研究領域である。強化学習が「成功」と「失敗」の繰り返しの経験から、ロボットに最適な動作を自律獲得させる学習の仕組みであるのに対し、逆強化学習は、明文化が難しい熟練者の巧みなスキルを機械に自律獲得させる、見まねを通じた学習の枠組みになっている。熟練者のうまみ=「報酬」を、観察に基づき推定する枠組みとみなせるため、逆強化学習は、強化学習の逆問題に相当するものである。そのため逆強化学習は模倣学習と呼ばれるほか、逆最適制御とも呼ばれる。これは、強化学習の実応用で問題となる報酬関数の設計など、明文化が難しいスキルの「コツ」といったものをモデル化することに適した技術であり、人行動のモデル化とも関連した応用も多い。例えば状況に応じた運転経路・目的地予測、人と人とのインタラクション行動の予測、運転の好みに応じた追い越し運転予測といった応用などがある。  本セミナーでは、このような逆強化学習の応用事例を紹介したうえで、逆強化学習の理解につながる、機械学習や強化学習の基礎から説明し、そのうえで逆強化学習の数理的な問題設定、さらに、本研究分野の発展に寄与するいくつかのアルゴリズムを紹介していく。近年の逆強化学習の課題なども紹介できればと考えている。

  1. AI分野における模倣学習の位置づけ
    1. AI分野における強化学習の位置づけ
    2. 最適制御と強化学習
    3. 強化学習と逆強化学習
    4. 行動クローニングと逆強化学習
  2. 逆強化学習の応用事例
    1. 行動スキル獲得
    2. 行動予測
    3. 効率的な強化学習
  3. 機械学習の基本要素の確認
    1. 損失の期待値・平均値の最小化
    2. 正則化
    3. 数値最適化 (勾配法)
  4. 強化学習の問題設定
    1. マルコフ決定過程
    2. 報酬最大化
    3. 価値関数・Bellman方程式・価値反復法
  5. 逆強化学習の基礎
    1. 逆強化学習の基本的枠組の導出
    2. モデルベース離散状態空間の逆強化学習
      1. 最大マージン逆強化学習
      2. 最大エントロピー逆強化学習
    3. 強化学習と逆強化学習の双対性 (GAIL)
  6. 逆強化学習の発展
    1. モデルフリー連続状態空間の強化学習
      1. 価値関数近似・方策勾配法
      2. SAC,PPO,TRPO etc.
    2. 報酬関数の表現手法
      1. 線形モデル
      2. 加法モデル
      3. 非線形モデリング
      4. 敵対的生成モデリング (AIRL)
  7. 逆強化学習の実装
    • シミュレーション環境を用いた逆強化学習の実装事例を紹介する
  8. 逆強化学習の最近の進展

受講料

ライブ配信セミナーについて