Detecting Unsafe Behavior in Neural Network Imitation Policies for Caregiving Robotics

要約

この論文では、高齢者や障害者の介護における自動化支援の需要の高まりに対処することを目的として、介護ロボティクスにおける模倣学習の応用を検討します。
この研究では、深層学習と制御アルゴリズムの進歩を活用して、オフラインのデモンストレーションを使用したニューラル ネットワーク ポリシーのトレーニングに焦点を当てています。
対処される重要な課題は、模倣学習ベースの政策、特に普及政策の安全性を高めるために重要な「政策停止」問題です。
提案されている新しいソリューションには、アンサンブル予測子と、早期の異常検出のための正規化フローベースのアルゴリズムの適応が含まれます。
VAE や Tran-AD などの異常検出手法との比較評価により、支援ロボットのベンチマークで優れたパフォーマンスが実証されました。
この論文は、介護ロボティクスにおけるニューラル ネットワーク ポリシーを確実に展開するために重要な、安全モデルをポリシー トレーニングに統合するさらなる研究について論じて締めくくられています。

要約(オリジナル)

In this paper, the application of imitation learning in caregiving robotics is explored, aiming at addressing the increasing demand for automated assistance in caring for the elderly and disabled. Leveraging advancements in deep learning and control algorithms, the study focuses on training neural network policies using offline demonstrations. A key challenge addressed is the ‘Policy Stopping’ problem, crucial for enhancing safety in imitation learning-based policies, particularly diffusion policies. Novel solutions proposed include ensemble predictors and adaptations of the normalizing flow-based algorithm for early anomaly detection. Comparative evaluations against anomaly detection methods like VAE and Tran-AD demonstrate superior performance on assistive robotics benchmarks. The paper concludes by discussing the further research in integrating safety models into policy training, crucial for the reliable deployment of neural network policies in caregiving robotics.

arxiv情報

著者 Andrii Tytarenko
発行日 2024-07-29 09:12:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク