Recursive Distillation for Open-Set Distributed Robot Localization

要約

最先端の自己位置推定モデルにおける一般的な仮定は、注釈付きのトレーニング データセットがターゲット ワークスペースで利用できることです。
しかし、ロボットが一般的なオープンワールドを移動する場合、これは必ずしも当てはまりません。
この研究では、オープンワールド分散ロボット システムのための新しいトレーニング スキームを導入します。
私たちのスキームでは、ロボット (「生徒」) は、見知らぬ場所で出会った他のロボット (「教師」) に指導を求めることができます。
具体的には、擬似トレーニング データセットが教師モデルから再構築され、ドメイン、クラス、語彙の増分セットアップの下で学生モデルの継続的な学習に使用されます。
典型的な知識伝達スキームとは異なり、私たちのスキームは教師モデルに最小限の仮定のみを導入するため、非協力的、トレーニング不可能(画像検索エンジンなど)、またはブラックボックス教師(画像検索エンジンなど)を含む、さまざまなタイプのオープンセット教師を処理できます。
、データプライバシー)。
この論文では、一度訓練された生徒が再帰的に次世代のオープン教師セットに参加できる、挑戦的なデータフリーの再帰的蒸留シナリオを使用して、そのような汎用モデルのインスタンスとしてのランキング関数を調査します。

要約(オリジナル)

A typical assumption in state-of-the-art self-localization models is that an annotated training dataset is available for the target workspace. However, this is not necessarily true when a robot travels around the general open world. This work introduces a novel training scheme for open-world distributed robot systems. In our scheme, a robot (“student’) can ask the other robots it meets at unfamiliar places (“teachers’) for guidance. Specifically, a pseudo-training dataset is reconstructed from the teacher model and then used for continual learning of the student model under domain, class, and vocabulary incremental setup. Unlike typical knowledge transfer schemes, our scheme introduces only minimal assumptions on the teacher model, so that it can handle various types of open-set teachers, including those uncooperative, untrainable (e.g., image retrieval engines), or black-box teachers (i.e., data privacy). In this paper, we investigate a ranking function as an instance of such generic models, using a challenging data-free recursive distillation scenario, where a student once trained can recursively join the next-generation open teacher set.

arxiv情報

著者 Kenta Tsukahara,Kanji Tanaka
発行日 2024-09-26 09:04:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク