ニューラルネットワーク計算の高速化手法とその最新動向

再開催を依頼する / 関連するセミナー・出版物を探す
会場 開催

日時

開催予定

プログラム

本講演では、ニューラルネットワーク計算を高速化するための技術を、既に実用化されているものから研究段階のものまで幅広く紹介します。具体的には、GPU を用いた高速化技術、FPGA を用いた高速化技術、そしてニューラルネットワーク計算専用ハードウェアについて紹介します。  これからニューラルネットワーク計算の高速化技術を利用される予定のエンジニアの方、あるいは、ニューラルネットワーク計算の高速化技術を現在開発中のエンジニアの方、双方にとって有益な情報を提供します。

  1. はじめに
  2. ニューラルネットワーク
    1. ニューラルネットワークの種類
    2. ニューラルネットワークの計算アルゴリズム
    3. ニューラルネットワーク計算のボトルネック
  3. ニューラルネットワーク計算高速化のための一般的なテクニック
    1. 並列化
    2. キャッシュの利用率向上
    3. 低精度化
  4. アプローチ①:GPUを用いた高速化
    1. GPUの概要
    2. ニューラルネットワーク計算におけるGPUの利用例
    3. GPUのアーキテクチャとCUDA
    4. cuDNN:ディープラーニングのためのCUDAライブラリ
  5. アプローチ②:FPGAを用いた高速化
    1. FPGAの概要
    2. ニューラルネットワーク計算におけるFPGAの利用例
    3. FPGAの利用環境
    4. 研究事例紹介
  6. アプローチ③:ニューラルネットワーク計算専用ハードウェアを用いた高速化
    1. ニューラルネットワーク計算専用ハードウェアの概要
    2. 研究事例紹介
  7. まとめと今後の展望

会場

株式会社オーム社 オームセミナー室
101-8460 東京都 千代田区 神田錦町3-1
株式会社オーム社 オームセミナー室の地図

受講料