Transformerニューラルネットの原理と産業現場応用への研究

再開催を依頼する / 関連するセミナー・出版物を探す
オンライン 開催

本セミナーでは、生成AIブームの火付け役でもあるChat GPT など革新的なTransformerニューラルネットを基盤とした技術とその応用可能性について解説いたします。

日時

中止

プログラム

ChatGPTはその自然な会話で世界を驚かせましたが、その基盤技術は革新的なニューラルネットである”Transformer”であることは意外と知られていません。ChatGPTがすごいのではなくてTransformerがすごいのです。徐々に内部計算エンジンであるTransformerの産業応用にも目が向き始めた段階にあります。  本セミナーでは、まずAI機械学習の入り口である「ニューラルネットとは?」から初めて、その産業現場、時系列データや単語系列へ適用を学びます。そのうえで、大規模言語モデルの内部コアであるTransformerニューラルネットの数式原理を分かりやすく丁寧に説明します。内部はベクトル行列計算だけであることに驚かれるでしょう。  そして、Transformer言語応用にとどまらず画像や予測といった産業現場応用への適用を目指す最先端研究の実例紹介し、将来の展望を受講生とディスカッションします。数学や機械学習の予備知識が全くない状態からの受講を仮定していますので、ご安心ください。

  1. AI機械学習の現状
    1. AI機械学習の位置づけ
      • 教師有り学習
      • 教師無し学習
      • ニューラルネット
      • 強化学習
    2. 産業応用への適用現状
      • 事例
        • 欠陥画像と検査
        • 切削音と工具寿命 他
  2. ニューラルネットの基礎
    1. MLP型ディープラーニング
      • ベクトル行列計算
      • 活性化関数とは
      • 事例: 設備電力制御に適用・性能評価
    2. 系列型LSTM
      • 再帰型系列ニューラルネットの基礎原理
      • 事例: 突発事象予測に適用・性能評価
  3. 言語機械学習の基礎
    1. 単語符号化
      • 埋込みベクトル化、なぜベクトルか?
      • 単語意味の演算
      • 文脈意味分布
    2. 生成AIの登場
      • 大規模言語モデル:GPT・BERT
  4. 生成AIのTransformerニューラルネット
    1. 生成AIの技術基盤Transformer
      • Transformerの内部アーキテクチャ
      • 豊富な情報を与える単語位置ベクトル
      • 単語間の関係性を抽出するQKV Attention機構
    2. Transformer応用:自然言語から産業現場へ
      • 自然言語応用のみならす系列データ処理の素質
  5. Transformer産業応用の研究事例
    1. 画像処理
      • ViTの画像Patch系列による注意個所の抽出
    2. 系列予測
      • TFTによる時系列変化点抽出の説明性能
    3. 構造予測
      • AlfaFold2によるタンパク質構造生成予測
  6. 産業への可能性と課題
    1. Transformerと産業現場の現実
      • 産業現場データ収集困難さと対策
      • 系列予測とTransformer内部計算説明性
    2. 展望

受講料

複数名受講割引

アカデミー割引

教員、学生および医療従事者はアカデミー割引価格にて受講いただけます。

ライブ配信セミナーについて