研究代表者研究分担者研究分担者研究分担者研究分担者研究協力者研究協力者研究員研究員研究補助員研究補助員対面対話では視覚で互いに相手や周囲の状況がわかっているので、簡単な言葉で意思の伝達ができる。本研究ではロボットにこの機能を持たせることを目指して研究を行った。そのために、社会学の会話分析・相互行為分析の手法により人間の会話内容と視覚情報の関係を明らかにし、コミュニケーションに必要な視覚情報の認識と提示について研究した。さらに、この機能をネットワークを通じてロボットと対話したり、ロボットを通じてその周囲の人と対話する場合にも拡張した。具体的には、以下の3項目について研究開発を行った。 1) 対話を通じて物体を認識する方法。(物体認識) 2) 介護場面で人間が依頼をしやすいように行動した上で、依頼をしたい人を見つけ依頼を受け付ける方法。(介護ロボット) 3) 対面コミュニケーション、ネットワークを通じての遠隔地にいる人間とロボットのコミュニエーション、ロボットを媒介にしてネットワークの両側にいる人間同士のコミュニケーションの3つのコミュニケーションのできるミュージアムガイドロボット。(ガイドロボット) In most contexts of face-to-face interaction, humans carry out relatively smooth communication because they have the ability to obtain information on actions and situations based on the visual field. The purpose of this research project is to...