要約
支援ロボット アームは、ユーザーが日常のタスクを実行できるように支援しようとします。
ロボットがこの支援を提供できる方法の 1 つは、自律性の共有です。
共有された自律性の中で、人間とロボットの両方がロボットの動作の制御を維持します。ロボットは、人間が望んでいることを理解していると確信すると、タスクを自動化するために介入します。
しかし、そもそもロボットはどのようにしてこれらのタスクを認識するのでしょうか?
自律性の共有に対する最先端のアプローチは、多くの場合、事前の知識に依存しています。
たとえば、ロボットは人間の潜在的な目標を事前に知る必要があるかもしれません。
長期的な対話中に、これらの方法は必然的に破綻します。遅かれ早かれ、人間はロボットが予期しないタスクを実行しようとするでしょう。
したがって、この論文では、ゼロから援助を学ぶ共有自律性への代替アプローチを策定します。
私たちの洞察によると、オペレーターは毎日重要なタスク (冷蔵庫を開ける、コーヒーを作るなど) を繰り返しています。
したがって、事前の知識に頼るのではなく、これらの繰り返しの対話を利用して支援政策を学習します。
人間のタスクを認識し、同様のデモンストレーションを再現し、不明な場合は制御を返すアルゴリズムである SARI を紹介します。
次に、学習と制御を組み合わせて、アプローチの誤差が最終的に均一に制限されることを示します。
この誤差限界をサポートするためにシミュレーションを実行し、模倣学習ベースラインに対するアプローチを比較し、増加するタスクを支援するその能力を調査します。
最後に、障害のあるユーザーを対象としたパイロット テストを含む、業界標準の手法と共通の自律性ベースラインを使用して 3 つのユーザー調査を実施します。
私たちの結果は、繰り返される対話を通じて共有自律性を学習することは、既知のタスクに対する既存のアプローチと一致し、新しいタスクのベースラインを上回るパフォーマンスを示すことを示しています。
ここでユーザー調査のビデオをご覧ください: https://youtu.be/3vE4omSvLvc
要約(オリジナル)
Assistive robot arms try to help their users perform everyday tasks. One way robots can provide this assistance is shared autonomy. Within shared autonomy, both the human and robot maintain control over the robot’s motion: as the robot becomes confident it understands what the human wants, it intervenes to automate the task. But how does the robot know these tasks in the first place? State-of-the-art approaches to shared autonomy often rely on prior knowledge. For instance, the robot may need to know the human’s potential goals beforehand. During long-term interaction these methods will inevitably break down — sooner or later the human will attempt to perform a task that the robot does not expect. Accordingly, in this paper we formulate an alternate approach to shared autonomy that learns assistance from scratch. Our insight is that operators repeat important tasks on a daily basis (e.g., opening the fridge, making coffee). Instead of relying on prior knowledge, we therefore take advantage of these repeated interactions to learn assistive policies. We introduce SARI, an algorithm that recognizes the human’s task, replicates similar demonstrations, and returns control when unsure. We then combine learning with control to demonstrate that the error of our approach is uniformly ultimately bounded. We perform simulations to support this error bound, compare our approach to imitation learning baselines, and explore its capacity to assist for an increasing number of tasks. Finally, we conduct three user studies with industry-standard methods and shared autonomy baselines, including a pilot test with a disabled user. Our results indicate that learning shared autonomy across repeated interactions matches existing approaches for known tasks and outperforms baselines on new tasks. See videos of our user studies here: https://youtu.be/3vE4omSvLvc
arxiv情報
著者 | Ananth Jonnavittula,Shaunak A. Mehta,Dylan P. Losey |
発行日 | 2024-02-16 16:23:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google