要約
この論文では、ヒューマノイド ロボットで表現力豊かな動作シーケンスを生成し、人間のような非言語コミュニケーションを行う能力を強化するための EMOTION と呼ばれるフレームワークを紹介します。
顔の表情、身振り、体の動きなどの非言語的合図は、効果的な対人関係において重要な役割を果たします。
ロボットの動作は進歩しているにもかかわらず、既存の方法では人間の非言語コミュニケーションの多様性と繊細さを模倣するには不十分なことがよくあります。
このギャップに対処するために、私たちのアプローチは、大規模言語モデル (LLM) のコンテキスト内学習機能を活用して、人間とロボットのインタラクションに社会的に適切なジェスチャ モーション シーケンスを動的に生成します。
私たちはこのフレームワークを使用して 10 種類の表現力豊かなジェスチャーを生成し、EMOTION およびその人間によるフィードバック バージョンである EMOTION++ によって生成されたモーションの自然さと理解しやすさを人間のオペレーターによるモーションと比較するオンライン ユーザー調査を実施しました。
結果は、私たちのアプローチが、特定のシナリオの下で理解できる自然なロボットの動きを生成する際に、人間のパフォーマンスに匹敵するか、それを上回ることを示しています。
また、表現力豊かなロボット ジェスチャーを生成する際に一連の変数を考慮するための、将来の研究への設計上の影響も提供します。
要約(オリジナル)
This paper introduces a framework, called EMOTION, for generating expressive motion sequences in humanoid robots, enhancing their ability to engage in humanlike non-verbal communication. Non-verbal cues such as facial expressions, gestures, and body movements play a crucial role in effective interpersonal interactions. Despite the advancements in robotic behaviors, existing methods often fall short in mimicking the diversity and subtlety of human non-verbal communication. To address this gap, our approach leverages the in-context learning capability of large language models (LLMs) to dynamically generate socially appropriate gesture motion sequences for human-robot interaction. We use this framework to generate 10 different expressive gestures and conduct online user studies comparing the naturalness and understandability of the motions generated by EMOTION and its human-feedback version, EMOTION++, against those by human operators. The results demonstrate that our approach either matches or surpasses human performance in generating understandable and natural robot motions under certain scenarios. We also provide design implications for future research to consider a set of variables when generating expressive robotic gestures.
arxiv情報
著者 | Peide Huang,Yuhan Hu,Nataliya Nechyporenko,Daehwa Kim,Walter Talbott,Jian Zhang |
発行日 | 2024-10-30 17:22:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google