第1部. AIシステムの説明責任に関わる最新動向
(2019年7月18日 10:30〜12:00)
人工知能 (AI) 技術が様々な応用システムに組み込まれ、社会に広がりつつある。それにつれて、AI技術の性能面だけでなく、説明責任・公平性・安全性・信頼性等の品質面がAIシステムに対する社会的要請として強まってきた。AI社会原則が国・世界レベルのガイドラインとして議論・策定され、米国国防高等研究計画局 (
DARPA) で関連技術への投資が強化される等、産業界だけでなく学術界や政策面でも取り組みが活発化している。
本講演では、このような国内外の動向を概観し、具体的な取り組み事例も含めて紹介する。なお、説明責任に加えて、公平性・安全性・信頼性等、AIシステムの品質面をやや広めに概観する。
- 問題意識
- ブラックボックス問題 (説明責任)
- 差別・偏見、バイアス問題 (公平性)
- Adversarial Examples、脆弱性問題 (頑健性)
- テスト手法、品質保証問題 (安全性、信頼性)
- システム開発のパラダイム転換
- 国内外動向
- 研究コミュニティの動向
- 産業界の動向
- AI社会原則、ガイドラインの動向
- 政策動向
- 国際標準化動向
- 取り組み事例
- 説明責任のための技術開発例
- 公平性のための技術開発例
- 頑健性テスト、品質保証に対する技術開発例 等
第2部. 日立ソリューションズ・テクノロジーにおけるAIのブラックボックスを解析する方法
(2019年7月18日 12:45〜14:45)
Deep Learning (DL) を使った人工知能システムは自動運転, Roboticsなど様々な分 野で実用化されつつある。一方でAIの意思決定をどう検証するか、想定外の動作をどう 抑止するか、といった品質保証上の課題も議論されている。本セミナーではDLによる画 像認識に対する、このBlack-Box問題を解析する技術を実例を挙げながら解説する。
- AIの品質保証に関わる諸課題
- AIの信頼性とは
- AIの判断根拠
- Black-Box問題の解明技術
- 画像認識における認識精度と特徴量の寄与度との関係
- 実例に見る誤認識の解明
- 学習データの質的向上技術
第3部. “説明できるAI”の作り方と業務への導入、活用の仕方
(2019年7月18日 15:00〜17:00)
深層学習の処理が人に説明できないことが業務への機械学習の 導入を妨げています。ここでは「説明できるAI」を作るための2つの方法 (①ブラックボックスの見える化,②ホワイトボ ックスの精度向上) について平易に解説します。
- 説明できるAIについて
- 深層学習の特徴と問題点
- 説明できるAIの構成方法
- ブラックボックス (深層学習など) を説明する方法
- 学習済みの深層回路の可視化手法 ・中間層・ヒートマップ・Grad-CAMなど
- 入出力の関係性を調べる方法 ・出力の予測・Attention・LIME など
- 深層回路を小さな回路に圧縮する方法 ・回路規模を圧縮して実装し易くする各種の手法 など.
- 原理が分かり易い深層回路を作る方法 ・GCM・EGCM・深層零平均正規化相互相関ネットなど
- 他の知識を利用・転用する深層学習法 ・転移学習・蒸留・浸透学習法 (PLM) など
- ホワイトボックス (決定木など) の精度向上手法
- 単位処理のモジュール化による構造の最適化 ・進化的画像処理・認識など
- 特徴量の最適化法 ・特徴量最適化・ACSYS・SIFTERなど
- 小規模な回路による高度な処理の実現方法 ・進化的セル型回路網・進化型神経回路網
- 処理プロセスが分かり易い認識器を作る方法 ・進化的条件判断ネットワークEDENなど
- 処理プロセスを言葉で説明する方法 ・決定木やEDENの処理を自然言語で表す手法など
- 業務へのAI導入について
- AI導入時の基本8箇条
- AI導入を成功させるコツとは?