要約
従来のビジュアル サーボ手法では、人間が視覚信号だけで完了できる、複数の視点からのシーン間のサーボ処理に問題がありました。
この論文では、自己衝突や特異点の問題など、ロボット固有の制約の下で多視点ビジュアル サーボをどのように解決できるかを調査しました。
我々は、強化学習を使用して視覚状態の潜在空間表現からロボットの動作を反復的に推定する、新しい学習ベースの多視点視覚サーボ フレームワークを発表しました。
さらに、私たちのアプローチは、OpenAI/Gym に接続された Gazebo シミュレーション環境でトレーニングおよび検証されました。
シミュレーション実験を通じて、私たちの手法がさまざまな視点からの初期画像を与えられた場合に最適な制御ポリシーを学習できることを示し、平均成功率 97.0% で Direct Visual Servoing アルゴリズムを上回りました。
要約(オリジナル)
Traditional visual servoing methods suffer from serving between scenes from multiple perspectives, which humans can complete with visual signals alone. In this paper, we investigated how multi-perspective visual servoing could be solved under robot-specific constraints, including self-collision, singularity problems. We presented a novel learning-based multi-perspective visual servoing framework, which iteratively estimates robot actions from latent space representations of visual states using reinforcement learning. Furthermore, our approaches were trained and validated in a Gazebo simulation environment with connection to OpenAI/Gym. Through simulation experiments, we showed that our method can successfully learn an optimal control policy given initial images from different perspectives, and it outperformed the Direct Visual Servoing algorithm with mean success rate of 97.0%.
arxiv情報
著者 | Lei Zhang,Jiacheng Pei,Kaixin Bai,Zhaopeng Chen,Jianwei Zhang |
発行日 | 2023-12-25 20:46:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google