AI機械学習の活用・導入のためにこれだけは押さえておきたい数学 超入門 2日間セミナー

再開催を依頼する / 関連するセミナー・出版物を探す
オンライン 開催

日時

中止

プログラム

1日目 AI機械学習に的を絞った行列・偏微分・確率密度の超入門

(2024年12月16日 10:30〜16:30)

 本セミナー1日目では、AI機械学習の原理を知るために最低限必要な数学に絞り込んで、受講者があらためて中学数学から思い出すことから始めます。機械学習の専門書のようにさらっと数式定義式を示すだけでなく、学習計算における単純な数値例計算を順をおって書き示します。受講者が2日目のニューラルネット機械学習の内部計算原理を受講する準備として最低限に絞り込んだ数式の使い方を丁寧に説明します。

  1. AI機械学習と数学
    1. AI機械学習の再確認
    2. ニューラルネット入門
    3. 学習ツールと学習原理
  2. 代数の復習
    1. 関数 (変数とパラメータは立場の違い)
    2. 和の記号
      • 意味は簡単
      • Σ記号に慣れる
    3. ベクトル
      • ニューラルネットの変数
      • 内積
      • ノルム
    4. 行列
      • ニューラルネットの内部計算
  3. 指数関数の復習
    1. 累乗 (指数関数への準備)
    2. 対数・指数関数 (eの導入)
    3. 指数関数の応用 (ニューラルネットの活性化関数)
  4. 微分の復習
    1. 微分と偏微分 (変数とパラメータの変化率)
    2. 初歩関数の微分公式 (機械学習に使う最小限)
    3. 合成関数の微分 (ニューラルネットのパラメータ調整)
  5. 確率統計の復習
    1. 確率基礎 (条件つき確率)
    2. 確率変数
      • 離散から連続へ
      • 確率密度の概念
    3. 正規分布 (誤差分布の定番)

2日目 AI機械学習原理を理解するための数式読み方入門

(2024年12月23日 10:30〜16:30)

 本セミナー2日目は、前半までの数式記号に限定した範囲で、AI機械学習の基礎中の基礎の項目であるニューラルネット計算原理を解説します。本セミナー後半の到達点としては、ニューラルネット計算誤差関数の最小化アルゴリズム計算の理解です。そのため、AIのなかでもニューラルネットに絞り込みんで確実に内部計算を追えるようにします。そのほかへの展開は、これまで数式が障壁だったのを本セミナーで乗り越えた受講者が自ら開拓されていくものと考えます。

  1. データへの数式あてはめ
    1. データと回帰式
      • データの傾向
      • 数式あてはめ
    2. 最小2乗法
      • 偏微分
      • 合成関数の適用
  2. ニューラルネットのしくみ
    1. NNのしくみ (ディープラーニングとは)
    2. 簡単な数式モデル (勉強用の数式設定)
    3. 順伝搬 (出力計算の流れ)
  3. AI機械学習のしくみ
    1. 損失関数 (学習誤差全体の数式)
    2. 勾配急降下法 (最小二乗法の次の手)
  4. 誤差逆伝搬計算のしくみ
    1. 誤差逆伝搬の考え (ディープラーニングの場合)
    2. 重み調整の数式 (合成偏微分の適用を理解)
    3. 学習最適化手法
  5. 事例:GPTの数式を見てみよう
    1. 自然言語のベクトル埋込み
    2. Transformerニューラルネット
    3. 実は数式計算しているだけ

受講料

複数名受講割引

アカデミー割引

教員、学生および医療従事者はアカデミー割引価格にて受講いただけます。

ライブ配信セミナーについて