本セミナーでは、奥行き、立体視、三次元知覚、両眼視差など複雑なヒトの視覚特性を解説いたします。
また、AR像の生成を違和感なく行うために必要な要素、仮想と現実の感覚の違いについて詳解いたします。
(2018年12月10日 10:00〜11:30)
頭を動かしても世界が動いているようには知覚されず、視野は安定しています。また、日常的に自分の手の動きを見ながら様々な操作をしています。VR技術を用いることで、これらのメカニズムや可塑性を調べることができること、また新たなヒューマンインターフェースが構築できる可能性について具体的な例を示します。 また視覚情報は触覚にも影響することを、機械系を含む実験装置で測定した例を紹介し、ハプティックデバイスの最適セッティングや限界を超える手法について説明します。 さらに、人工現実感 (VR) や拡張現実感 (AR) の技術を応用することで、視聴覚情報が食品のおいしさに与える影響 (クロスモーダル効果) が精密に測定できること、食品設計におけるクロスモーダル効果応用を指向する「食品情報工学」の将来展望について言及します。
(2018年12月10日 12:10〜13:40)
VRやAR像の生成には、幾何学的整合性、光学的整合性、および時間的整合性の3整合性が必要と言われている。 本講演では、光学的整合性と時間的整合性を満たすためのリアルタイム影生成手法を紹介する。 また、幾何学的整合性については、仮想空間と現実空間における奥行感覚の違いに関する実験例を紹介し、最後に、仮想空間でVRシミュレータを操作する際の人体への影響と現実空間で同様な操作を行う場合の人体への影響の違いについて実験例を紹介する。
(2018年12月10日 13:50〜15:20)
AR技術が進歩し、社会の様々なシーンにAR機器が浸透しつつある。それに伴い、AR機器を使用するヒトがどのように視覚認知するのかを把握しておくことの重要性も高まりつつある。 ヒトの視覚情報処理には未解明の部分も多く残るが、本講演では解明されている事柄のうち、特にAR機器・コンテンツ開発者にとって有益となり得る知見を中心に紹介する。
(2018年12月10日 15:30〜17:00)
私たちは3次元の世界をごく自然に知覚していますが、特に意識もせずにこのことが実現できているのは、視覚システムがさまざまな3次元の手がかりを利用して2次元の網膜像から3次元の空間や構造を計算し、復元しているためです。 ARの呈示においてリアルな奥行きや3次元の情報が知覚されるのも、現実世界と同じように呈示されたこうした手がかりを視覚システムがいわばだまされて用いて計算,復元しているからといえます。 しかし、現状のARのシステムでは視野角や解像度、焦点距離など現実世界で得られる視覚情報とは異なる点も多くあります。 本講座では一般的な奥行きや3D知覚の特性やそのメカニズムを紹介しながら、ARに特有の問題点や特徴的な点について適宜取り上げ、解説します。