要約
多くの操作タスクは、持続的な物理的相互作用がすでに始まった後にのみ決定できる非視覚的な環境情報に依存しているため、課題が生じています。
これは、バルブを締めるなど、労力に敏感でダイナミクスに依存するタスクに特に関係します。
これらのタスクを安全かつ確実に実行するには、ロボットはタスク実行中の予期せぬ変化に迅速に対応できなければなりません。
人間は直感的に反応し、そのような問題に合わせて操作戦略を適応させることができますが、そのような動作をロボットに表現して実装することは未解決の問題のままです。
適応動作ツリーを紹介します。これにより、ロボットはタスク実行中に視覚的観察と非視覚的観察の両方に迅速に適応し、タスクの失敗を回避したり、以前の試行のデータに基づいて別の戦略に切り替えたりすることができます。
私たちは、産業環境で一般的に見られる多くのタスクに対してアプローチをテストします。
私たちの結果は、安全性、堅牢性(1 つの実験を除くすべての実験で 100% の成功率)、およびタスク完了の効率性(たとえば、バルブ締めに関して全体的なタスクの速度が平均 46% 向上)を実証しており、人間の監視や介入への依存を軽減するでしょう。
要約(オリジナル)
Many manipulation tasks pose a challenge since they depend on non-visual environmental information that can only be determined after sustained physical interaction has already begun. This is particularly relevant for effort-sensitive, dynamics-dependent tasks such as tightening a valve. To perform these tasks safely and reliably, robots must be able to quickly adapt in response to unexpected changes during task execution. Humans can intuitively respond and adapt their manipulation strategy to suit such problems, but representing and implementing such behaviors for robots remains an open question. We present the adaptive behavior tree, which enables a robot to quickly adapt to both visual and non-visual observations during task execution, preempting task failure or switching to a different strategy based on data from previous attempts. We test our approach on a number of tasks commonly found in industrial settings. Our results demonstrate safety, robustness (100% success rate for all but one experiment) and efficiency in task completion (eg, an overall task speedup of 46% on average for valve tightening), and would reduce dependency on human supervision and intervention.
arxiv情報
著者 | Jacques Cloete,Wolfgang Merkt,Ioannis Havoutis |
発行日 | 2024-09-12 17:37:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google