要約
人工知能とロボット工学の急速な発展は私たちの生活に大きな影響を与え、従来人間が行っていたタスクをインテリジェントシステムが実行することが増えています。
効率的に知識を伝達するには、人間の教師のメンタル モデルとロボット学習者の能力を一致させる必要があります。
この論文では、人間の指導行動とロボットの学習行動を一致させることで不一致を定量化し、削減するように設計されたフィードバック メカニズムであるメンタル モデル ミスマッチ (MMM) スコアを紹介します。
大規模言語モデル (LLM) を使用して、教師の意図を自然言語で分析し、適応的なフィードバックを生成します。
仮想ロボットにパズル ゲームを解くよう教える 150 人の参加者を対象とした研究では、意図ベースのフィードバックが、従来のパフォーマンス ベースのフィードバックやフィードバックなしよりも大幅に優れていることが示されています。
この結果は、意図に基づくフィードバックが指導成果を向上させ、ロボットの学習プロセスの理解を向上させ、誤解を減らすことを示唆しています。
この研究は、ロボットの学習と人間の教育効果を向上させることを目的として、人間のメンタルモデルとロボットの能力間の不一致を定量化して軽減する方法を提供することにより、人間とロボットのインタラクション(HRI)における重大なギャップに対処します。
要約(オリジナル)
The rapid development of artificial intelligence and robotics has had a significant impact on our lives, with intelligent systems increasingly performing tasks traditionally performed by humans. Efficient knowledge transfer requires matching the mental model of the human teacher with the capabilities of the robot learner. This paper introduces the Mental Model Mismatch (MMM) Score, a feedback mechanism designed to quantify and reduce mismatches by aligning human teaching behavior with robot learning behavior. Using Large Language Models (LLMs), we analyze teacher intentions in natural language to generate adaptive feedback. A study with 150 participants teaching a virtual robot to solve a puzzle game shows that intention-based feedback significantly outperforms traditional performance-based feedback or no feedback. The results suggest that intention-based feedback improves instructional outcomes, improves understanding of the robot’s learning process and reduces misconceptions. This research addresses a critical gap in human-robot interaction (HRI) by providing a method to quantify and mitigate discrepancies between human mental models and robot capabilities, with the goal of improving robot learning and human teaching effectiveness.
arxiv情報
著者 | Phillip Richter,Heiko Wersing,Anna-Lisa Vollmer |
発行日 | 2025-01-08 16:57:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google