本セミナーでは、コミュニケーション中に人が表出する言語・非言語マルチモーダル情報 (言語・音声・視線・姿勢・ジェスチャ・生体情報など) を統合的に処理することによって、その人の行動や感情、態度、個性といった内面状態を推定する技術に関して解説いたします。
また、会話ロボット・インタラクティブシステムへの応用に関する最新の研究動向を紹介いたします。
マルチモーダル情報から内面状態を推定する社会的信号処理技術は会話ロボットを初めとする人工知能システムのための、インターフェイスを構築する上で重要であり、ユーザの態度推定に基づいて適応的に振る舞うロボットなど、人に寄り添う人工知能の実現に欠かせない。 本講義では、コミュニケーション中に人が表出する言語・非言語マルチモーダル情報 (言語・音声・視線・姿勢・ジェスチャ・生体情報など) を統合的に処理することによって、その人の行動や感情、態度、個性といった内面状態を推定する技術に関して解説を行う。また会話ロボット・インタラクティブシステムへの応用に関する最新の研究動向を紹介する。
R&D支援センターからの案内登録をご希望の方は、割引特典を受けられます。
案内および割引をご希望される方は、お申込みの際、「案内の希望 (割引適用)」の欄から案内方法をご選択ください。
「案内の希望」をご選択いただいた場合、1名様 40,000円(税別) / 44,000円(税込) で受講いただけます。
複数名で同時に申込いただいた場合、1名様につき 25,000円(税別) / 27,500円(税込) で受講いただけます。