要約
この研究では、ロボットについて何も想定しない、視覚的に制御されるロボットのための高速展開パイプラインを提案しています。
サイズ、色、マーカーの有無、または展開環境。
この場合、複雑な環境でのナビゲーションを成功させるには、ロボットの向きを正確に推定することが重要です。
ただし、角度値の手動ラベル付けは時間がかかり、おそらく実行が困難です。
このため、短時間で大量のデータを生成できる、弱く監視されたパイプラインを提案します。
さまざまな屋内環境で撮影されたリモート カメラ画像のデータセットに対するアプローチを評価し、シンプルなコントローラーを備えた完全自律パイプラインに統合した場合に高い追跡パフォーマンスを実証しました。
これにより、アプローチのデータ要件を分析し、30 分未満で新しい環境に新しいロボットを導入できる方法を示します。
要約(オリジナル)
This work proposes a fast deployment pipeline for visually-servoed robots which does not assume anything about either the robot – e.g. sizes, colour or the presence of markers – or the deployment environment. In this, accurate estimation of robot orientation is crucial for successful navigation in complex environments; manual labelling of angular values is, though, time-consuming and possibly hard to perform. For this reason, we propose a weakly supervised pipeline that can produce a vast amount of data in a small amount of time. We evaluate our approach on a dataset of remote camera images captured in various indoor environments demonstrating high tracking performances when integrated into a fully-autonomous pipeline with a simple controller. With this, we then analyse the data requirement of our approach, showing how it is possible to deploy a new robot in a new environment in less than 30.00 min.
arxiv情報
著者 | Luke Robinson,Daniele De Martini,Matthew Gadd,Paul Newman |
発行日 | 2023-06-26 17:00:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google