生成AIシステムのCSV実施とAIリテラシー教育セミナー

再開催を依頼する / 関連するセミナー・出版物を探す
オンライン 開催

日時

開催予定

プログラム

  1. 第1部:生成AIシステムの特性とリスク分析
    1. 生成AIシステムの基礎知識
      1. 従来のAIと生成AIの違い
      2. LLM (大規模言語モデル) の仕組みと動作原理
      3. 製薬・医療機器業界での活用事例と可能性
      4. 主要な生成AIサービスの特徴比較
      5. 生成AIの限界と盲目的依存の危険性
        • ハルシネーション (幻覚) の具体例
        • 流暢だが誤った情報の危険性
        • 判断力とレビュー力の低下リスク
    2. サムスン電子セキュリティ事故の詳細分析
      1. 事故の経緯と発生メカニズム
      2. なぜ防げなかったのか:3つの観点からの分析
        • People:AIリテラシーの欠如
        • Process:ルール・ガイドラインの不在
        • Technology:セキュリティ統制の不備
      3. 製薬・医療機器業界への示唆
      4. 類似事故の予防策
    3. 生成AIシステムに適用される規制要件
      1. FDA CSA最終ガイダンス (2025年9月) の要点
      2. EU AI Act (AI規制法) における生成AIの位置づけ
      3. ISO 13485とAIシステムの統合
      4. PMDAの考え方と国内規制動向
      5. データインテグリティとの関係 (ALCOA+原則)
      6. 21 CFR Part 11との整合性
    4. 規制当局の懸念と生成AI時代における査察対応
      1. 規制当局が生成AIに対して抱く具体的懸念事項
        • データインテグリティの確保 (真正性、完全性、追跡可能性)
        • 透明性と説明責任 (ブラックボックス問題への対応)
        • 患者安全性への影響 (ハルシネーション、バイアス)
      2. 査察時に確認される重点項目
        • ポリシーとガイドラインの整備状況
        • リスク評価とバリデーション文書
        • Human in the Loopの実装証跡
        • 教育訓練記録と理解度評価
        • インシデント管理とCAPAの実施
      3. 実際の指摘事例と対応策
      4. Warning Letterに見る生成AI関連の違反事例分析
      5. 査察準備のチェックリスト
  2. 第2部:生成AIシステムのCSV実践アプローチ
    1. リスクベースアプローチの適用
      1. GAMP 5カテゴリ分類と生成AIシステム
      2. CSA原則に基づくCritical Thinking (批判的思考) の実践
      3. 生成AI特有のリスク要因の特定
        • ハルシネーション (幻覚) のリスク
        • バイアスと公平性の問題
        • 再現性の課題
        • データプライバシーとセキュリティ
        • モデルの透明性とブラックボックス問題
      4. 演習:リスク評価マトリクスの作成
      5. リスクレベルに応じた保証活動の決定
    2. バリデーション戦略の立案
      1. 従来のIQ/OQ/PQアプローチの適用可否
      2. プロンプトエンジニアリングの妥当性確認
      3. 出力結果の検証方法 (正確性、一貫性、適切性)
      4. 継続的モニタリング計画の設計
      5. モデル更新・バージョンアップへの変更管理
      6. パフォーマンス劣化の検知と対応
      7. 演習:生成AIシステムのバリデーション計画書骨子作成
    3. 文書化要件と記録管理
      1. バリデーション計画書の作成ポイント
      2. テスト仕様書とテストケース設計
      3. エビデンス収集とトレーサビリティ
      4. 逸脱管理とCAPAの実施
      5. 監査証跡 (Audit Trail) の確保
      6. 定期レビューと再バリデーション
    4. Human in the Loop (HITL) による品質保証
      1. Human in the Loopの概念と規制産業における必要性
      2. 生成AIにおける人間の介在が必須となるポイント
        • Critical Decisionの特定
        • 患者安全性に影響する判断
        • 規制対象データの取扱い
        • 品質に影響する業務プロセス
      3. HITLを組み込んだワークフロー設計
        • 生成AI出力の検証プロセス
        • 人間による承認・却下の判断基準
        • エスカレーションルール
      4. 承認記録と監査証跡の確保
      5. AIへの過度な依存を防ぐ組織文化の醸成
      6. 演習:自社業務プロセスへのHITL組み込み検討
  3. 第3部:People, Process, Technologyの3層防御体制
    1. People:AIリテラシー教育プログラムの構築
      1. 組織に必要なAIリテラシーの定義
      2. レベル別AIリテラシーマトリクス
      3. 役割別に求められる知識・スキル
      4. 製薬・医療機器業界特有の要求事項
      5. 役割別教育プログラムの設計
      6. 経営層向け:AI戦略、ガバナンス、リスク管理
      7. 管理職向け:部門でのAI活用とリスク統制
      8. 実務担当者向け:適切な使用方法と限界の理解
      9. IT部門向け:技術的理解とセキュリティ対策
      10. 監査担当者向け:評価基準と確認ポイント
      11. 生成AI依存の危険性と対策
      12. 盲目的な信頼がもたらす判断力の低下
        • ハルシネーションの実例と検証方法
        • AIの出力を疑う習慣の徹底
        • ダブルチェック体制の構築
      13. レビューの慢性的な形骸化の防止
        • 「AIが作ったから安全」という誤った認識の排除
        • 実質的なレビューを担保する仕組み
        • レビューチェックリストの活用
        • レビュー品質のモニタリング指標
      14. 新人教育における重大な課題と対策
      15. 生成AI時代の新人が直面する問題
        • 当初からAIに依存することの長期的影響
        • 実務経験を積む機会の喪失
        • 基礎能力が育たないことによる将来的な問題
      16. レビュー力量が育たない悪循環
        • 自分で文書を書かないとレビューできない理由
        • 5年後、10年後に顕在化する深刻な事態
        • ベテラン退職後の組織能力低下リスク
      17. 段階的AI活用教育の実践
        • 新人の最初の1〜2年のAI使用制限ポリシー
        • 基礎能力習得の具体的マイルストーン
        • AIを「学習支援ツール」として位置づける方法
        • 能力レベルに応じたAI使用許可基準
      18. 批判的思考力 (Critical Thinking) の育成
      19. AIの出力を検証する具体的手法
        • ファクトチェックの方法
        • ソースの確認と裏付け
        • 論理的矛盾の発見訓練
      20. 「なぜ」を問い続ける組織文化
        • 質問することを奨励する環境づくり
        • 根拠を求める習慣の定着
        • 複数の視点から検証する訓練
      21. エラー検出能力の向上トレーニング
        • 意図的に誤りを含む文書でのレビュー訓練
        • AIが生成した誤情報の識別演習
        • 実際の失敗事例を使ったケーススタディ
      22. 実践的トレーニング手法
      23. ケーススタディによる演習 (サムスン電子事例含む)
      24. 失敗事例から学ぶ予防策
      25. ロールプレイングとシミュレーション
      26. AIなしでの文書作成・レビュー訓練の実施
      27. 先輩社員によるメンタリングプログラム
      28. 継続的な教育とフォローアップの仕組み
      29. 理解度評価と効果測定
      30. 組織全体での人材育成戦略
      31. 短期的効率と長期的能力育成のバランス
      32. ベテラン知識の次世代への確実な継承メカニズム
      33. OJT (実地指導) の重視と体系化
      34. 持続可能な品質保証体制の構築
      35. 人材育成KPIの設定と追跡
    2. Process:ルールとガイドラインの明確化
      1. 社内ポリシーとSOPの整備
      2. 生成AI利用ポリシーの作成ポイント
      3. 入力禁止情報の明確な定義
        • 個人情報・患者データ
        • 機密情報・企業秘密
        • 規制対象データ
        • 未公開情報
      4. 承認プロセスと権限管理
      5. 利用申請とレビューフロー
      6. 運用ルールの策定
      7. 利用可能な生成AIサービスの指定
      8. 用途別の使用ガイドライン
      9. 出力結果の検証・承認手順
      10. インシデント発生時の報告・対応手順
      11. 定期的な見直しと更新プロセス
    3. Technology:多層セキュリティ統制の実装
      1. 技術的セキュリティ対策
      2. DLP (Data Loss Prevention) の導入と設定
      3. アクセス制御とユーザー認証
      4. 通信の暗号化とセキュアな接続
      5. ログ管理とリアルタイムモニタリング
      6. アラート設定とインシデント検知
      7. 統制されたAI利用環境の構築
      8. プライベートLLMとパブリックLLMの使い分け
      9. API統合による統制された利用環境
      10. プロンプトテンプレートの標準化
      11. 出力結果の自動チェック機能
      12. バリデーション済みシステムとしての維持管理
  4. 第4部:実装ロードマップと質疑応答
    1. 段階的実装アプローチ
      1. フェーズ1:現状評価とギャップ分析
      2. フェーズ2:ポリシー・ガイドライン策定
      3. フェーズ3:パイロットプロジェクト実施
      4. フェーズ4:全社展開と継続的改善
      5. 各フェーズでの成功基準と評価指標
    2. 想定Q&A
      1. よくある質問と回答例
        • 「既存の業務プロセスで使っているChatGPTはバリデーションが必要か?」
        • 「プライベートLLMとパブリックLLMの使い分け基準は?」
        • 「生成AIの出力結果はどこまで検証すればよいか?」
        • 「新人にAIを使わせないと効率が悪いのでは?」
        • 「レビューが形骸化していないことをどう証明すればよいか?」
        • 「ベテラン社員の知識をどうやって次世代に継承するか?」
      2. 査察・監査対応のポイント
        • 査察官からの典型的な質問と模範回答
        • 文書提示要求への対応方法
        • Human in the Loopの実装を証明する方法
        • 人材育成プログラムの有効性を示す方法
      3. 他社ベストプラクティスと失敗事例
        • AI依存により組織能力が低下した事例
        • 段階的AI教育で成功している企業の取り組み
    3. 質疑応答・総括
      1. 参加者からの質問への回答
      2. 次のステップと推奨事項
      3. フォローアップ支援のご案内

受講料

ライブ配信セミナーについて