要約
私たちは、非言語的な合図を統合することによってソーシャルロボットの共感能力を強化することを提案します。
私たちの主な貢献は、ソーシャル ロボットにおける、SAFE と略される 4 種類の共感的な非言語キュー (スピーチ、アクション (ジェスチャー)、顔の表情、および感情) の設計とラベル付けです。
これらのキューは、Large Language Model (LLM) を使用して生成されます。
私たちはロボット用の LLM ベースの会話システムを開発し、人間のカウンセラーが定義した社会的手がかりとの整合性を評価しました。
予備的な結果では、「喜び」や「活気」などの穏やかでポジティブな社会的感情を好むことや、頻繁にうなずくジェスチャーなど、ロボットの反応に明確なパターンが示されています。
こうした傾向にもかかわらず、私たちのアプローチは、コンテキストを認識した、より本物の対話が可能なソーシャル ロボットの開発につながりました。
私たちの研究は、人間とロボットの相互作用に関する将来の研究の基礎を築き、社会的で共感力のあるロボットを作成する際の言語的および非言語的手がかりの両方の重要な役割を強調します。
要約(オリジナル)
We propose augmenting the empathetic capacities of social robots by integrating non-verbal cues. Our primary contribution is the design and labeling of four types of empathetic non-verbal cues, abbreviated as SAFE: Speech, Action (gesture), Facial expression, and Emotion, in a social robot. These cues are generated using a Large Language Model (LLM). We developed an LLM-based conversational system for the robot and assessed its alignment with social cues as defined by human counselors. Preliminary results show distinct patterns in the robot’s responses, such as a preference for calm and positive social emotions like ‘joy’ and ‘lively’, and frequent nodding gestures. Despite these tendencies, our approach has led to the development of a social robot capable of context-aware and more authentic interactions. Our work lays the groundwork for future studies on human-robot interactions, emphasizing the essential role of both verbal and non-verbal cues in creating social and empathetic robots.
arxiv情報
著者 | Yoon Kyung Lee,Yoonwon Jung,Gyuyi Kang,Sowon Hahn |
発行日 | 2023-08-31 08:20:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google