説明可能・信頼できるAIの開発とその活用方法

再開催を依頼する / 関連するセミナー・出版物を探す
オンライン 開催

日時

中止

プログラム

第1部 ブラックボックス機械学習モデルの判断根拠を説明する技術

(2024年11月12日 10:30〜12:00)

 ニューラルネットワークのような複雑な機械学習モデルを用いることで高精度の予測が可能になった一方で、機械学習モデルはブラックボックス化が進み、モデルの振る舞いの理解が困難になっている。  本講演では、ブラックボックス機械学習モデルにおける判断根拠を説明する技術について代表的な手法を紹介すると共に、我々が研究した、効率的にモデルに忠実な説明を生成する技術についても紹介する。

  1. 機械学習の基礎知識
    1. 教師あり学習
    2. ブラックボックス設定
  2. 説明可能AIとは
    1. 説明可能AIの社会における需要
    2. 説明手法の分類
    3. 説明可能AIの用途
    4. 説明の具体例
  3. 代表的説明手法
    1. Local Interpretable Model-agnostic Explanations (LIME)
    2. Shapley Additive Explanations (SHAP)
    3. ブラックボックスモデルの説明における課題
  4. 効率的にモデルに忠実な説明を生成する技術
    1. 入力の入れ子構造を活用した説明技術
  5. まとめと将来展望

第2部 説明可能なAI (XAI) 、信頼できるAIの技術開発と重要性

(2024年11月12日 13:00〜15:00)

 2023年9月7日に開催された広島AIプロセス閣僚級会議では、高度なAIシステムに関する透明性、偽情報、知的財産権、プライバシーなどのリスクが指摘された。これを受け、特に透明性と偽情報を判断する技術的手段として、説明可能なAI (XAI) の研究が一層求められている。XAIの実現により、さらにAIと人間の協働や信頼性を高めることが求められている。  本講演では、エンドユーザやビジネスユーザにおいて、XAIが求められるシーンを説明した上で、具体的にXAIによって、AIの振る舞いや出力の根拠が説明可能になることとはどういうことか、それによってどのような影響があるかについて述べる。

  1. AIと人間との協働や信頼性を高めるために必要なこと
  2. 説明可能なAI (Explainable AI;XAI) とは一体何か
  3. XAIによって実現できること
  4. XAIの具体的な利用シーン
  5. 世界の動向
  6. XAIによるAIと人間との協働社会

第3部 説明可能AIと機械学習における公平性と活用のポイント

(2024年11月12日 15:15〜17:15)

 説明可能なAIとは、AIの判断根拠を人間にわかるように説明する技術である。AIはブラックボックスと言われ、人間がAIの判断根拠を理解することが難しい。AIの判断根拠の説明は、AIを利用する人間にとって重要な技術的課題である。  また、機械学習における公平性は、AIによる意思決定において非常に重要な課題となっている。データやAIのバイアスによる性別、年齢、人種などの差別を低減させるための技術が注目されている。本講座では、説明可能なAIと機械学習における公平性についての技術を解説する。

  1. AI倫理問題
  2. AIトップカンファレンスの動向
  3. 機械学習における説明性と精度
  4. 説明可能なAIとは
  5. 説明可能なAIの技術分類
  6. 説明可能なAIの各手法
  7. 協力ゲーム理論と機械学習
  8. 説明可能なAIのツール
  9. 羅生門効果
  10. 注意機構による精度向上
  11. データのモデルへの影響度
  12. モンテカルロドロップ
  13. 生成AIによる説明
  14. 公平と平等、社会での差別
  15. グループ間公平性と個人間公平性
  16. 再犯防止予測AI、採用でのAI利用
  17. AIでの公平性を数式で表現
  18. バイアスの原因と緩和アルゴリズム

受講料

複数名同時受講割引について

アカデミック割引

日本国内に所在しており、以下に該当する方は、アカデミック割引が適用いただけます。

ライブ配信セミナーについて