Point Cloud Models Improve Visual Robustness in Robotic Learners

要約

照明やカメラの位置などの視覚条件がトレーニング中に見られたものと異なる場合、視覚制御ポリシーでは大幅なパフォーマンスの低下が発生する可能性があり、わずかな違いでも能力が急激に低下することがよくあります。
この研究では、RGB-D および点群ベースの視覚制御ポリシーのこれらのタイプの視覚変化スイートに対する堅牢性を検証します。
モデルフリーとモデルベースの両方の強化学習器でこれらの実験を実行するために、新しい点群ワールド モデル (PCWM) と点群ベースの制御ポリシーを導入します。
私たちの実験では、点群を明示的にエンコードするポリシーは、RGB-D のポリシーよりも大幅に堅牢であることが示されています。
さらに、私たちが提案した PCWM は、トレーニング中のサンプル効率の点で以前の研究よりも大幅に優れていることがわかりました。
総合すると、これらの結果は、点群による 3D シーンの推論により、ロボット学習者のパフォーマンスが向上し、学習時間が短縮され、堅牢性が向上する可能性があることを示唆しています。
プロジェクトの Web ページ: https://pvskand.github.io/projects/PCWM

要約(オリジナル)

Visual control policies can encounter significant performance degradation when visual conditions like lighting or camera position differ from those seen during training — often exhibiting sharp declines in capability even for minor differences. In this work, we examine robustness to a suite of these types of visual changes for RGB-D and point cloud based visual control policies. To perform these experiments on both model-free and model-based reinforcement learners, we introduce a novel Point Cloud World Model (PCWM) and point cloud based control policies. Our experiments show that policies that explicitly encode point clouds are significantly more robust than their RGB-D counterparts. Further, we find our proposed PCWM significantly outperforms prior works in terms of sample efficiency during training. Taken together, these results suggest reasoning about the 3D scene through point clouds can improve performance, reduce learning time, and increase robustness for robotic learners. Project Webpage: https://pvskand.github.io/projects/PCWM

arxiv情報

著者 Skand Peri,Iain Lee,Chanho Kim,Li Fuxin,Tucker Hermans,Stefan Lee
発行日 2024-04-29 17:59:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク