One-Shot Transfer of Affordance Regions? AffCorrs!

要約

この作業では、オブジェクト パーツのワンショット ビジュアル検索に取り組みます。
注釈付きのアフォーダンス領域を持つオブジェクトの単一の参照画像が与えられた場合、ターゲットシーン内の意味的に対応する部分をセグメント化します。
事前トレーニングされた DINO-ViT の画像記述子と循環対応のプロパティを組み合わせた教師なしモデルである AffCorrs を提案します。
AffCorrs を使用して、クラス内およびクラス間のワンショット パーツ セグメンテーションの両方に対応するアフォーダンスを見つけます。
このタスクは、教師ありの代替手段よりも困難ですが、模倣や支援された遠隔操作によるアフォーダンスの学習などの将来の作業を可能にします。

要約(オリジナル)

In this work, we tackle one-shot visual search of object parts. Given a single reference image of an object with annotated affordance regions, we segment semantically corresponding parts within a target scene. We propose AffCorrs, an unsupervised model that combines the properties of pre-trained DINO-ViT’s image descriptors and cyclic correspondences. We use AffCorrs to find corresponding affordances both for intra- and inter-class one-shot part segmentation. This task is more difficult than supervised alternatives, but enables future work such as learning affordances via imitation and assisted teleoperation.

arxiv情報

著者 Denis Hadjivelichkov,Sicelukwanda Zwane,Marc Peter Deisenroth,Lourdes Agapito,Dimitrios Kanoulas
発行日 2022-09-16 08:41:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク