要約
制御可能な LED を備えたロボットの視覚的な位置特定を学習するための新しい自己教師型アプローチを提案します。
私たちは、位置のグラウンド トゥルースでラベル付けされた少数のトレーニング サンプルと、コレクションが安価で LED の状態のみがわかっている多くのトレーニング サンプルに依存しています。
LED 状態予測を口実タスクとして使用すると、視覚的位置特定の最終タスクを学習するのに大幅に役立つことを示します。
結果として得られるモデルでは、推論中に LED の状態を知る必要はありません。
ナノクワドラータの視覚的な相対位置特定へのアプローチをインスタンス化します。実験結果は、口実タスクを使用すると位置特定の精度が大幅に向上し (68.3% から 76.2% に)、教師付きベースライン、モデルの事前トレーニング、およびモデルの事前トレーニングなどの代替戦略を上回るパフォーマンスを示しています。
自動エンコーディング口実タスク。
ピア ナノ ドローンの位置追跡タスクで、21 fps で実行される 27 g Crazyflie ナノ ドローンにモデルをデプロイします。
わずか 300 枚の画像の位置ラベルに依存する私たちのアプローチでは、口実タスクなしでトレーニングされた教師ありベースライン モデルの平均追跡誤差が 11.9 cm であるのに対し、平均追跡誤差は 4.2 cm になります。
提案されたアプローチのビデオとコードは、https://github.com/idsia-robotics/leds-as-pretext で入手できます。
要約(オリジナル)
We propose a novel self-supervised approach for learning to visually localize robots equipped with controllable LEDs. We rely on a few training samples labeled with position ground truth and many training samples in which only the LED state is known, whose collection is cheap. We show that using LED state prediction as a pretext task significantly helps to learn the visual localization end task. The resulting model does not require knowledge of LED states during inference. We instantiate the approach to visual relative localization of nano-quadrotors: experimental results show that using our pretext task significantly improves localization accuracy (from 68.3% to 76.2%) and outperforms alternative strategies, such as a supervised baseline, model pre-training, and an autoencoding pretext task. We deploy our model aboard a 27-g Crazyflie nano-drone, running at 21 fps, in a position-tracking task of a peer nano-drone. Our approach, relying on position labels for only 300 images, yields a mean tracking error of 4.2 cm versus 11.9 cm of a supervised baseline model trained without our pretext task. Videos and code of the proposed approach are available at https://github.com/idsia-robotics/leds-as-pretext
arxiv情報
著者 | Mirko Nava,Nicholas Carlotti,Luca Crupi,Daniele Palossi,Alessandro Giusti |
発行日 | 2024-02-15 11:21:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google