Continual Learning through Human-Robot Interaction: Human Perceptions of a Continual Learning Robot in Repeated Interactions

要約

動的な現実世界環境での長期展開のために、支援ロボットは環境を学び、適応させ続ける必要があります。
研究者は、ロボットが限られたトレーニングデータから継続的に学習できるようにし、以前の知識を忘れないようにするための継続的な学習(CL)のためのさまざまな計算モデルを開発しました。
これらのCLモデルは、静的で体系的に収集されたデータセットで忘れを緩和することができますが、人間のユーザーがそれらとの複数の相互作用を継続的に学習するロボットをどのように知覚するかは不明です。
この論文では、オブジェクト認識のためのCLモデルをフェッチモバイルマニピュレーターロボットと統合し、人間の参加者が複数のセッションでロボットを直接教えてテストできるようにするシステムを開発しました。
私たちは、300セッション(参加者ごとに5セッション)でシステムと対話した60人の参加者と対面研究を実施しました。
複数のセッションで継続的な学習ロボットに対する人間の認識を理解するために、3つの異なるCLモデルを使用した被験者間研究を実施しました。
私たちの結果は、ロボットが以前に学んだオブジェクトを忘れた場合、継続的な学習ロボットの信頼、能力、および継続的な学習ロボットの使いやすさに対する参加者の認識が大幅に減少することを示唆しています。
ただし、ロボットが以前に学習したオブジェクトを忘れても、ロボットを教育およびテストするための参加者の知覚されたタスクロードは、複数のセッションで同じままです。
また、私たちの結果は、人間の参加者と対話するロボットに適用された場合、最先端のCLモデルが不当に機能する可能性があることを示しています。
さらに、継続的な学習ロボットは、基礎となる継続的な学習モデルやセッション番号に関係なく、人間の参加者によって非常に信頼できる、または有能であると認識されていません。

要約(オリジナル)

For long-term deployment in dynamic real-world environments, assistive robots must continue to learn and adapt to their environments. Researchers have developed various computational models for continual learning (CL) that can allow robots to continually learn from limited training data, and avoid forgetting previous knowledge. While these CL models can mitigate forgetting on static, systematically collected datasets, it is unclear how human users might perceive a robot that continually learns over multiple interactions with them. In this paper, we developed a system that integrates CL models for object recognition with a Fetch mobile manipulator robot and allows human participants to directly teach and test the robot over multiple sessions. We conducted an in-person study with 60 participants that interacted with our system in 300 sessions (5 sessions per participant). We conducted a between-subject study with three different CL models to understand human perceptions of continual learning robots over multiple sessions. Our results suggest that participants’ perceptions of trust, competence, and usability of a continual learning robot significantly decrease over multiple sessions if the robot forgets previously learned objects. However, the perceived task load on participants for teaching and testing the robot remains the same over multiple sessions even if the robot forgets previously learned objects. Our results also indicate that state-of-the-art CL models might perform unreliably when applied on robots interacting with human participants. Further, continual learning robots are not perceived as very trustworthy or competent by human participants, regardless of the underlying continual learning model or the session number.

arxiv情報

著者 Ali Ayub,Zachary De Francesco,Patrick Holthaus,Chrystopher L. Nehaniv,Kerstin Dautenhahn
発行日 2025-02-12 13:07:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク