要約
硬い地形での移動ロボットの自律ナビゲーションはよく研究されている問題ですが、背の高い草や茂みなどの変形しやすい地形でのナビゲーションは依然として課題です。
これに対処するために、剛地形と非剛体地形の両方で、カメラ画像からロボットと地形の相互作用の結果を予測する、説明可能で物理学を意識したエンドツーエンドの微分可能なモデルを導入します。
提案された MonoForce モデルは、オンボード カメラからのロボットと地形の相互作用の力を予測するブラック ボックス モジュールと、それに続くホワイト ボックス モジュールで構成されます。ホワイト ボックス モジュールは、古典力学の法則のみを使用して、これらの力と制御信号を予測軌道に変換します。
微分可能なホワイト ボックス モジュールにより、予測された軌道誤差をブラック ボックス モジュールに逆伝播することができ、ロボットの予測された力とグランドトゥルース軌道の間の一貫性を測定する自己教師あり損失として機能します。
公開データセットと当社のデータに対する実験評価では、硬い地形では予測機能が最先端のアルゴリズムに匹敵する一方で、MonoForce は背の高い草や低木などの非硬い地形では優れた精度を示すことがわかりました。
結果の再現性を高めるために、コードとデータセットの両方をリリースします。
要約(オリジナル)
While autonomous navigation of mobile robots on rigid terrain is a well-explored problem, navigating on deformable terrain such as tall grass or bushes remains a challenge. To address it, we introduce an explainable, physics-aware and end-to-end differentiable model which predicts the outcome of robot-terrain interaction from camera images, both on rigid and non-rigid terrain. The proposed MonoForce model consists of a black-box module which predicts robot-terrain interaction forces from onboard cameras, followed by a white-box module, which transforms these forces and a control signals into predicted trajectories, using only the laws of classical mechanics. The differentiable white-box module allows backpropagating the predicted trajectory errors into the black-box module, serving as a self-supervised loss that measures consistency between the predicted forces and ground-truth trajectories of the robot. Experimental evaluation on a public dataset and our data has shown that while the prediction capabilities are comparable to state-of-the-art algorithms on rigid terrain, MonoForce shows superior accuracy on non-rigid terrain such as tall grass or bushes. To facilitate the reproducibility of our results, we release both the code and datasets.
arxiv情報
著者 | Ruslan Agishev,Karel Zimmermann,Vladimír Kubelka,Martin Pecka,Tomáš Svoboda |
発行日 | 2024-08-16 14:07:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google