大規模事前学習済み言語モデルの進展と課題

再開催を依頼する / 関連するセミナー・出版物を探す
オンライン 開催

日時

開催予定

プログラム

Word2vecの登場以降ELMo、BERTといった事前学習済みモデルの発展により自然言語処理における各タスクの精度は飛躍的に向上した。  本講座ではそれらの発展を順に説明し、ChatGPTやGPT-4といった産業上重要な位置を占めると考えられるモデルの歴史的な位置づけを把握することを助ける。また現在の大規模事前学習済み言語モデルとっての残された課題についても紹介する。

  1. 本日紹介する内容
  2. 単語分散表現とその利用
    1. word2vec
    2. word2vecの派生
    3. 言語モデル
      1. 再帰型ニューラルネットワーク
      2. Long short-term memory (LSTM)
    4. 系列変換モデル (seq2seq)
      1. エンコーダ・デコーダ
      2. 注意付きエンコーダ・デコーダ
  3. 事前学習済み言語モデル
    1. ELMo
    2. Transformer
    3. BERT
    4. BERTの派生
    5. 系列変換モデル
  4. 大規模事前学習済み言語モデル (LLM)
  5. 最新の動向
  6. 残された課題

受講料

ライブ配信セミナーについて