要約
動物は、視覚を使って正確かつ機敏に移動することができます。
この能力を複製することは、ロボット工学における長年の目標でした。
従来のアプローチでは、この問題を標高マッピングと足場計画段階に分解していました。
ただし、標高マッピングは、失敗や大きなノイズ アーティファクトの影響を受けやすく、特殊なハードウェアが必要であり、生物学的に信じられません。
この論文では、階段、縁石、飛び石、および隙間を横断できる最初のエンドツーエンドの移動システムを紹介します。
この結果は、単一の正面向きの深度カメラを使用した中型の四足歩行ロボットで示しています。
ロボットのサイズが小さいため、他では見られない特殊な歩行パターンを発見する必要があります。
自己中心的なカメラは、後ろ足で地形を推定するために過去の情報を記憶するポリシーを必要とします。
シミュレーションでポリシーをトレーニングします。
トレーニングには 2 つのフェーズがあります。最初に、安価に計算できる深さ画像のバリアントを使用して強化学習を使用してポリシーをトレーニングし、フェーズ 2 で、教師あり学習を使用して深さを使用する最終的なポリシーに抽出します。
結果として得られるポリシーは現実の世界に転送され、ロボットの限られたコンピューティングでリアルタイムで実行できます。
プッシュ、滑りやすい表面、岩の多い地形などの摂動に対して堅牢でありながら、多種多様な地形を横断できます。
動画は https://vision-locomotion.github.io にあります
要約(オリジナル)
Animals are capable of precise and agile locomotion using vision. Replicating this ability has been a long-standing goal in robotics. The traditional approach has been to decompose this problem into elevation mapping and foothold planning phases. The elevation mapping, however, is susceptible to failure and large noise artifacts, requires specialized hardware, and is biologically implausible. In this paper, we present the first end-to-end locomotion system capable of traversing stairs, curbs, stepping stones, and gaps. We show this result on a medium-sized quadruped robot using a single front-facing depth camera. The small size of the robot necessitates discovering specialized gait patterns not seen elsewhere. The egocentric camera requires the policy to remember past information to estimate the terrain under its hind feet. We train our policy in simulation. Training has two phases – first, we train a policy using reinforcement learning with a cheap-to-compute variant of depth image and then in phase 2 distill it into the final policy that uses depth using supervised learning. The resulting policy transfers to the real world and is able to run in real-time on the limited compute of the robot. It can traverse a large variety of terrain while being robust to perturbations like pushes, slippery surfaces, and rocky terrain. Videos are at https://vision-locomotion.github.io
arxiv情報
著者 | Ananye Agarwal,Ashish Kumar,Jitendra Malik,Deepak Pathak |
発行日 | 2022-11-14 18:59:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google