Evaluation of Safety Constraints in Autonomous Navigation with Deep Reinforcement Learning

要約

強化学習アルゴリズムは自律ナビゲーションの分野で大きな成功を収めていますが、安全上の制約を考慮せずに実際の自律システムに直接適用することはできません。
後者は、道路上での自動運転車の危険な行動を回避するために重要です。
これらの制約の重要性を強調するために、この研究では、安全なナビゲーション ポリシーと安全でない 2 つの学習可能なナビゲーション ポリシーを比較します。
安全なポリシーでは制約が考慮されますが、もう一方のポリシーでは制約が考慮されません。
安全ポリシーでは、全体的なパフォーマンスを犠牲にすることなく、より多くのクリアランス (障害物までの距離) のある軌道を生成でき、トレーニング中の衝突が少なくなることがわかります。

要約(オリジナル)

While reinforcement learning algorithms have had great success in the field of autonomous navigation, they cannot be straightforwardly applied to the real autonomous systems without considering the safety constraints. The later are crucial to avoid unsafe behaviors of the autonomous vehicle on the road. To highlight the importance of these constraints, in this study, we compare two learnable navigation policies: safe and unsafe. The safe policy takes the constraints into account, while the other does not. We show that the safe policy is able to generate trajectories with more clearance (distance to the obstacles) and makes less collisions while training without sacrificing the overall performance.

arxiv情報

著者 Brian Angulo,Gregory Gorbov,Aleksandr Panov,Konstantin Yakovlev
発行日 2023-07-27 01:04:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク