Reducing Risk for Assistive Reinforcement Learning Policies with Diffusion Models

要約

AI の進歩によって推進される介護および支援ロボット工学は、特に支援を必要とする人の数が増加している状況において、増大する介護需要を満たす有望なソリューションを提供します。
このため、特に戦争関連の負傷による需要の高まりを考慮すると、効率的で安全な補助器具の緊急の必要性が生じています。
コストがアクセシビリティの障壁となってきましたが、技術の進歩により、これらのソリューションを民主化できるようになりました。
特に支援ロボットと人間との間の複雑な相互作用を考慮すると、安全性は依然として最優先の懸念事項です。
この研究では、支援ロボットのポリシー設計の改善における強化学習 (RL) と模倣学習の応用を検討します。
提案されたアプローチにより、追加の環境相互作用なしで、リスクの高い政策がより安全になります。
シミュレートされた環境を使用した実験を通じて、支援ロボット工学に関連するタスクにおける従来の RL アプローチの強化が実証されます。

要約(オリジナル)

Care-giving and assistive robotics, driven by advancements in AI, offer promising solutions to meet the growing demand for care, particularly in the context of increasing numbers of individuals requiring assistance. This creates a pressing need for efficient and safe assistive devices, particularly in light of heightened demand due to war-related injuries. While cost has been a barrier to accessibility, technological progress is able to democratize these solutions. Safety remains a paramount concern, especially given the intricate interactions between assistive robots and humans. This study explores the application of reinforcement learning (RL) and imitation learning, in improving policy design for assistive robots. The proposed approach makes the risky policies safer without additional environmental interactions. Through experimentation using simulated environments, the enhancement of the conventional RL approaches in tasks related to assistive robotics is demonstrated.

arxiv情報

著者 Andrii Tytarenko
発行日 2024-05-13 10:07:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク