私は、RGB動画に依存しない人物センシングを軸に、無線(Wi-Fi 等)や音響信号を用いた人物認識・動作推定の研究を進めてきました。遮蔽や暗所など視覚が不利な環境でも高精度に動作を捉えつつ、視覚プライバシーへの配慮を両立します。現在は Carnegie Mellon University にて、物理シミュレーションと強化学習を組み合わせ、人―人/人―ロボットの身体インタラクションにおけるモーション生成に取り組んでいます。
今後は、非視覚センシングと物理ベース学習を統合してロボットの知覚・行動計画に実装し、転倒検知・安全介助・協調搬送など生活現場への展開を進めます。実環境で信頼して使える human-centric なヒューマンセンシング/ヒューマン-ロボット・インタラクション基盤の確立を目指します。