要約
動的な障害物の周囲でのロボットのナビゲーションをスケールアップするには、2 つの大きな課題があります。1 つは障害物の複雑な相互作用ダイナミクスを分析的にモデル化するのが難しい場合があり、もう 1 つは障害物の数が増えると計画と制御の複雑さが指数関数的に増加することです。
したがって、データ駆動型および学習ベースの手法は、この状況では特に価値があります。
ただし、データ駆動型の手法は分布ドリフトの影響を受けやすいため、さまざまな障害物密度にわたって学習されたモデルをトレーニングして一般化することが困難になります。
我々は、スケーラビリティを実現するために、Sequential Neural Control Barrier モデル (SNCBF) の構成学習のための新しい方法を提案します。
私たちのアプローチは、重要な観察を利用しています。つまり、複数の動的障害物の空間的相互作用パターンは、障害物ごとの状態の時間的シーケンスを通じて分解および予測できます。
分解を通じて、少数の障害物のみでトレーニングされた制御ポリシーを、障害物密度が 100 倍になる環境にも一般化できます。
ポテンシャル場、エンドツーエンドの強化学習、モデル予測制御などの既存の手法と比較して、動的衝突回避の向上における提案手法の利点を実証します。
また、ハードウェア実験も実施し、補足ビデオでアプローチの実際の有効性を示します。
要約(オリジナル)
There are two major challenges for scaling up robot navigation around dynamic obstacles: the complex interaction dynamics of the obstacles can be hard to model analytically, and the complexity of planning and control grows exponentially in the number of obstacles. Data-driven and learning-based methods are thus particularly valuable in this context. However, data-driven methods are sensitive to distribution drift, making it hard to train and generalize learned models across different obstacle densities. We propose a novel method for compositional learning of Sequential Neural Control Barrier models (SNCBFs) to achieve scalability. Our approach exploits an important observation: the spatial interaction patterns of multiple dynamic obstacles can be decomposed and predicted through temporal sequences of states for each obstacle. Through decomposition, we can generalize control policies trained only with a small number of obstacles, to environments where the obstacle density can be 100x higher. We demonstrate the benefits of the proposed methods in improving dynamic collision avoidance in comparison with existing methods including potential fields, end-to-end reinforcement learning, and model-predictive control. We also perform hardware experiments and show the practical effectiveness of the approach in the supplementary video.
arxiv情報
| 著者 | Hongzhan Yu,Chiaki Hirayama,Chenning Yu,Sylvia Herbert,Sicun Gao |
| 発行日 | 2023-07-06 14:24:17+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google