本セミナーでは、様々な分野で使われるようになってきた Transformerについて、基礎となる理論と応用を解説します。
自然言語、音声、画像の3つの分野での応用と留意点を解説します。またTransformer を用いた事前学習のモデルであるBERTについて、人工的なタスク設定と表現学習の観点から解説し、文書検索や言語理解などの応用を解説します。また自己回帰型の言語モデルとテキストからの画像生成を紹介します。
- Transformer の基礎となる理論
- 再帰型ネットワーク
- 系列変換モデルによる機械翻訳
- 注意機構による対応付け
- 自己注意機構
- Transformer
- Transformerの応用
- 機械翻訳への適用
- 音声分野における応用 (Conformer)
- 画像分野における応用 (Vision Transformer)
- 適用の際の留意点
- 言語処理と言語生成への適用
- 人工的なタスク設定と表現学習
- BERT (Bidirectional Encoder Representations from Transformers)
- BERT を用いた文書検索と言語理解
- 言語モデル
- GPT (Generative Pre-trained Transformer)
- GPT-2
- GPT-3
- テキストからの画像生成 (DALL-E)