Learning to Count without Annotations

要約

参照ベースのオブジェクト計数のための最近の教師あり手法は、ベンチマーク データセットのパフォーマンスを向上させ続けていますが、画像内の数十のオブジェクトに手動でアノテーションを付けることに伴うコストのため、小規模なデータセットに依存する必要があります。
手動のアノテーションを必要とせずにこのタスクを学習できるモデル、UnCounTR を提案します。
この目的を達成するために、トレーニング サンプルとしてさまざまなオブジェクトが貼り付けられた画像である「セルフ コラージュ」を構築します。これは、任意のオブジェクトの種類と数をカバーする豊富な学習信号を提供します。
私たちの方法は、既存の教師なし表現とセグメンテーション技術に基づいて構築されており、手動による監視なしで参照ベースのカウントの能力を初めて実証することに成功しました。
私たちの実験では、私たちの方法が単純なベースラインや FasterRCNN や DETR などの汎用モデルよりも優れているだけでなく、一部の領域では教師あり計数モデルのパフォーマンスにも匹敵することが示されています。

要約(オリジナル)

While recent supervised methods for reference-based object counting continue to improve the performance on benchmark datasets, they have to rely on small datasets due to the cost associated with manually annotating dozens of objects in images. We propose UnCounTR, a model that can learn this task without requiring any manual annotations. To this end, we construct ‘Self-Collages’, images with various pasted objects as training samples, that provide a rich learning signal covering arbitrary object types and counts. Our method builds on existing unsupervised representations and segmentation techniques to successfully demonstrate for the first time the ability of reference-based counting without manual supervision. Our experiments show that our method not only outperforms simple baselines and generic models such as FasterRCNN and DETR, but also matches the performance of supervised counting models in some domains.

arxiv情報

著者 Lukas Knobel,Tengda Han,Yuki M. Asano
発行日 2024-03-29 17:38:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク