要約
ロボット操作における人間の指示の考えられない実行は、中毒、火災、さらには爆発などの深刻な安全リスクにつながる可能性があります。
この論文では、責任あるロボット操作を提示します。これは、指示を完了し、複雑な操作を安全かつ効率的に実行しながら、現実世界の環境で潜在的な危険を考慮する必要があります。
ただし、現実世界のこのようなシナリオは、トレーニングにとってさまざまで危険です。
この課題に対処するために、(i)安全リスクを含むシナリオを自動的に生成し、仮想相互作用を実行する世界モデルを含む、(ii)安全性の結果を推測し、安全性の認知を徐々に発展させ、ロボットがデンジャーをnavavedしながらタスクを達成できるようにする精神モデルを含む、ポリティとしての安全性を提案します。
さらに、SafeBox合成データセットを作成します。これには、さまざまな安全リスクシナリオと指示を備えた100の責任あるロボット操作タスクが含まれ、実際の実験に関連するリスクを効果的に削減します。
実験は、安全性としての安全性がリスクを回避し、合成データセットと実際の世界の実験の両方で効率的にタスクを完了し、ベースライン方法を大幅に上回ることを示しています。
SafeBoxデータセットは、現実世界のシナリオで一貫した評価結果を示し、将来の研究の安全で効果的なベンチマークとして機能します。
要約(オリジナル)
Unthinking execution of human instructions in robotic manipulation can lead to severe safety risks, such as poisonings, fires, and even explosions. In this paper, we present responsible robotic manipulation, which requires robots to consider potential hazards in the real-world environment while completing instructions and performing complex operations safely and efficiently. However, such scenarios in real world are variable and risky for training. To address this challenge, we propose Safety-as-policy, which includes (i) a world model to automatically generate scenarios containing safety risks and conduct virtual interactions, and (ii) a mental model to infer consequences with reflections and gradually develop the cognition of safety, allowing robots to accomplish tasks while avoiding dangers. Additionally, we create the SafeBox synthetic dataset, which includes one hundred responsible robotic manipulation tasks with different safety risk scenarios and instructions, effectively reducing the risks associated with real-world experiments. Experiments demonstrate that Safety-as-policy can avoid risks and efficiently complete tasks in both synthetic dataset and real-world experiments, significantly outperforming baseline methods. Our SafeBox dataset shows consistent evaluation results with real-world scenarios, serving as a safe and effective benchmark for future research.
arxiv情報
著者 | Minheng Ni,Lei Zhang,Zihan Chen,Kaixin Bai,Zhaopeng Chen,Jianwei Zhang,Lei Zhang,Wangmeng Zuo |
発行日 | 2025-05-31 11:19:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google