要約
動き予測はオフロードの自動運転にとって重要ですが、車両と地形との間の相互作用が複雑であるため、オンロードの運転よりもはるかに多くの課題が生じます。
従来の物理ベースのアプローチでは、動的システムと外部擾乱を正確にモデル化することが困難になります。
対照的に、データ駆動型ニューラル ネットワークは広範なデータセットを必要とし、基本的な物理法則を明示的に捉えるのに苦労するため、一般化が不十分になる可能性があります。
両方の方法の利点を統合することにより、神経象徴的アプローチは有望な方向性を示します。
これらの方法は物理法則をニューラル モデルに埋め込み、一般化機能を大幅に向上させる可能性があります。
ただし、これまでの作品は、オフロード走行の現実世界の設定では評価されていません。
このギャップを埋めるために、オフロード運転における運動予測のために保存則、つまりオイラー・ラグランジュ方程式をデータ駆動型ニューラル モデルに統合するニューラル シンボリック アプローチである PhysORD を紹介します。
私たちの実験では、PhysORD が不確実性をモデル化することで車両の動きを正確に予測し、外乱に耐えることができることがわかりました。
精度と効率の両方で既存の手法を上回り、長期予測におけるデータ効率の高い学習と汎化能力を実証します。
要約(オリジナル)
Motion prediction is critical for autonomous off-road driving, however, it presents significantly more challenges than on-road driving because of the complex interaction between the vehicle and the terrain. Traditional physics-based approaches encounter difficulties in accurately modeling dynamic systems and external disturbance. In contrast, data-driven neural networks require extensive datasets and struggle with explicitly capturing the fundamental physical laws, which can easily lead to poor generalization. By merging the advantages of both methods, neuro-symbolic approaches present a promising direction. These methods embed physical laws into neural models, potentially significantly improving generalization capabilities. However, no prior works were evaluated in real-world settings for off-road driving. To bridge this gap, we present PhysORD, a neural-symbolic approach integrating the conservation law, i.e., the Euler-Lagrange equation, into data-driven neural models for motion prediction in off-road driving. Our experiments showed that PhysORD can accurately predict vehicle motion and tolerate external disturbance by modeling uncertainties. It outperforms existing methods both in accuracy and efficiency and demonstrates data-efficient learning and generalization ability in long-term prediction.
arxiv情報
著者 | Zhipeng Zhao,Bowen Li,Yi Du,Taimeng Fu,Chen Wang |
発行日 | 2024-04-02 02:36:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google