インタビュー
情報科学研究科 NET JOURNAL 23
従来手法より2桁高精度な測距技術および照明を用いた独自の時刻同期技術とを統合し、携帯端末やロボットの3次元位置ならびに速度を高速かつ正確に推定する。さらに、特定の移動体に対する選択的フリッカレス可視光通信や位置依存の情報配信を実現する。
室内でのユーザや移動物体の位置をリアルタイムで正確に取得するため、位相一致法と呼ばれる高精度時刻基準点設定法を独自に提案した(測距誤差0.03 mm)。この技術を基にスマートフォンユーザのジェスチャ認識、ロボットトラッキングシステム等を開発した。さらに、カメラ機能搭載の携帯端末とLED照明を用いた独自のアルゴリズムにより、マイクロ秒オーダーの時刻同期を実現した。LED変調と端末位置の位置情報を統合することにより位置依存の情報配信や室内照明によるフリッカレス可視光通信が可能になる。
これまでに企業との共同研究を含め、理論から応用、実装に至る研究開発を実施した。提案技術は産業ロボット用精密操作、多視点3D映像構築のための複数カメラ同期、高速可視光通信等へ展開が期待できる。セキュリティ応用を含め、実世界の興味深い問題へのチャレンジを通して、より高性能な技術の実現を目指す。