要約
タッチは感情豊かなコミュニケーションの基本的な側面であり、人間の相互作用において重要な役割を果たし、人間とロボットの相互作用に大きな可能性をもたらします。
これまでの研究では、人間の接触をまばらに表現することで社会的な触覚シグナルを効果的に伝達できることが実証されています。
しかし、多くの人型ロボットは手を開閉するだけなど単純化された機能を備えており、微妙な触覚表現が制限されているため、人間とロボットの触覚相互作用の進歩は依然として限られています。
この研究では、ロボットが触覚振動のまばらな表現を使用して人間に感情を伝える方法を検討します。
これを達成するために、私たちは 5×5 グリッドの振動モーターを統合したウェアラブル スリーブを開発し、ロボットが多様な触感やジェスチャーを伝達できるようにしました。
大規模言語モデル (LLM) 内のチェーン プロンプトを使用して、10 の感情 (幸福、悲しみ、恐怖など) と 6 つのタッチ ジェスチャ (なでる、こする、タップなど) に対応する明確な 10 秒間の振動パターンを生成しました。
参加者 (N = 32) は、知覚された価度と覚醒に基づいて各振動刺激を評価しました。
人間は意図された感情を正確に認識しており、この結果は以前の調査結果と一致しています。
これらの結果は、感情的な触覚データを生成し、触覚信号を通じて効果的に感情を伝えるLLMの能力を強調しています。
この研究は、複雑な感情表現や触覚表現を振動パターンに変換することにより、LLM が人間とロボットの間の物理的な相互作用をどのように強化できるかを示しています。
要約(オリジナル)
Touch is a fundamental aspect of emotion-rich communication, playing a vital role in human interaction and offering significant potential in human-robot interaction. Previous research has demonstrated that a sparse representation of human touch can effectively convey social tactile signals. However, advances in human-robot tactile interaction remain limited, as many humanoid robots possess simplistic capabilities, such as only opening and closing their hands, restricting nuanced tactile expressions. In this study, we explore how a robot can use sparse representations of tactile vibrations to convey emotions to a person. To achieve this, we developed a wearable sleeve integrated with a 5×5 grid of vibration motors, enabling the robot to communicate diverse tactile emotions and gestures. Using chain prompts within a Large Language Model (LLM), we generated distinct 10-second vibration patterns corresponding to 10 emotions (e.g., happiness, sadness, fear) and 6 touch gestures (e.g., pat, rub, tap). Participants (N = 32) then rated each vibration stimulus based on perceived valence and arousal. People are accurate at recognising intended emotions, a result which aligns with earlier findings. These results highlight the LLM’s ability to generate emotional haptic data and effectively convey emotions through tactile signals. By translating complex emotional and tactile expressions into vibratory patterns, this research demonstrates how LLMs can enhance physical interaction between humans and robots.
arxiv情報
著者 | Qiaoqiao Ren,Tony Belpaeme |
発行日 | 2025-01-13 11:22:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google