Towards Safe Robot Foundation Models

要約

Robot Foundationモデルは、産業用アプリケーションから家庭用タスクまで、多様な環境にわたって展開の可能性を秘めています。
現在の研究は、主にさまざまなタスクにわたるポリシーの一般化機能に焦点を当てていますが、実際のシステムでの展開の重要な要件である安全性に対処することができません。
この論文では、ジェネラリスト政策のアクション空間を適切に制約するように設計された安全層を紹介します。
私たちのアプローチでは、安全なアクション空間を作成する安全な補強学習アルゴリズムであるAtacomを使用し、したがって、安全な状態移行を保証します。
Atacomをジェネラリストの政策に拡張することにより、当社の方法は、特定の安全性の微調整を必要とせずに、安全性の高いシナリオでの展開を容易にします。
エアホッケー環境でこの安全層の有効性を実証します。エアホッケー環境では、パックヒットエージェントが周囲と衝突するのを防ぎます。

要約(オリジナル)

Robot foundation models hold the potential for deployment across diverse environments, from industrial applications to household tasks. While current research focuses primarily on the policies’ generalization capabilities across a variety of tasks, it fails to address safety, a critical requirement for deployment on real-world systems. In this paper, we introduce a safety layer designed to constrain the action space of any generalist policy appropriately. Our approach uses ATACOM, a safe reinforcement learning algorithm that creates a safe action space and, therefore, ensures safe state transitions. By extending ATACOM to generalist policies, our method facilitates their deployment in safety-critical scenarios without requiring any specific safety fine-tuning. We demonstrate the effectiveness of this safety layer in an air hockey environment, where it prevents a puck-hitting agent from colliding with its surroundings, a failure observed in generalist policies.

arxiv情報

著者 Maximilian Tölle,Theo Gruner,Daniel Palenicek,Jonas Günster,Puze Liu,Joe Watson,Davide Tateo,Jan Peters
発行日 2025-03-10 14:55:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク