(2019年12月6日 10:00〜11:30)
マルチモーダル情報処理技術は会話ロボットを初めとする人工知能システムのための、インターフェイスを構築する上で重要であり、ユーザの態度推定に基づいて適応的に振る舞うロボットなど、人に寄り添う人工知能の実現に欠かせない。 本講義では,コミュニケーション中に人が表出する言語・非言語マルチモーダル情報 (言語・音声・視線・姿勢・ジェスチャ・生体情報など) を統合的に処理することによって、その人の行動や感情、態度、個性といった変数を推定する技術に関して解説を行う。また会話ロボット・インタラクティブシステムへの応用に関する最新の研究動向を紹介する。
(2019年12月6日 12:10〜13:40)
本講演では、これまでの自身の研究を中心に、クロスモーダルに関係する研究の具体的事例をご紹介いたします。 複数の感覚情報を同時呈示することで起きるインタラクションは、ヒトの知覚情報処理の過程を知る上で非常に重要な知見であるとともに、たとえば機械的制御の困難な触覚刺激を一定にしたままでも、同時呈示する視覚刺激を変えることで、異なる触知覚を与えられるなどの応用的利点があります。そのため、心理学や生理学などヒトの知覚情報処理に関する研究分野にとどまらず、バーチャルリアリティやユーザインタフェースの分野からも強く注目されるようになってきました。 本講演では特に視触覚のインタラクションを中心に、触圧覚や質感知覚での基礎的研究事例やその成果、携帯型端末における押下・凹凸感呈示としての応用検討結果、更なる活用の可能性などに言及します。 本講演を通じて、ヒトの情報処理についての知見とともに、これまで実現できなかった新たな情報呈示システムを開発するきっかけをご提供できればと考えております。
(2019年12月6日 13:50〜17:00)
近年、人間の脳を非侵襲に計測する技術の発展に伴って、未知の脳機能に迫ることが可能になってきた。本講座の前半においては、脳の基礎知識を説明した上で、最先端の脳計測技術の特徴や選び方を解説する。後半においては、マルチモーダル感覚情報処理の基礎知識、およびこれらの技術によって明らかになった最新知見を解説する。