Dense Center-Direction Regression for Object Counting and Localization with Point Supervision

要約

オブジェクトの計数と位置特定の問題は、一般的にポイント教師あり学習で対処されます。これにより、労力の少ないポイント アノテーションの使用が可能になります。
ただし、ポイント アノテーションに基づく学習では、アノテーション付きピクセルとアノテーションなしピクセルのセット間の不均衡が大きいため課題が生じます。これは、多くの場合、ポイント アノテーションと焦点損失のガウス平滑化で処理されます。
ただし、これらのアプローチは依然としてポイント注釈のすぐ近くのピクセルに焦点を当てており、残りのデータは間接的にのみ利用されます。
この研究では、最も近いオブジェクトの中心を指す方向、つまり中心方向の密な回帰を使用する、点教師あり学習のための CeDiRNet と呼ばれる新しいアプローチを提案します。
これにより、オブジェクトの中心を指す周囲の多くのピクセルから生じる各中心点のサポートが強化されます。
中心方向の定式化を提案します。これにより、問題を中心方向のドメイン固有の密な回帰と、合成言語でトレーニングできる小型軽量でドメインに依存しない位置特定ネットワークに基づく最終的な位置特定タスクに分割できます。
データはターゲットドメインから完全に独立しています。
物体のカウントと位置特定のための 6 つの異なるデータセット上で提案された方法のパフォーマンスを実証し、それが既存の最先端の方法よりも優れていることを示します。
このコードは、GitHub (https://github.com/vicoslab/CeDiRNet.git) でアクセスできます。

要約(オリジナル)

Object counting and localization problems are commonly addressed with point supervised learning, which allows the use of less labor-intensive point annotations. However, learning based on point annotations poses challenges due to the high imbalance between the sets of annotated and unannotated pixels, which is often treated with Gaussian smoothing of point annotations and focal loss. However, these approaches still focus on the pixels in the immediate vicinity of the point annotations and exploit the rest of the data only indirectly. In this work, we propose a novel approach termed CeDiRNet for point-supervised learning that uses a dense regression of directions pointing towards the nearest object centers, i.e. center-directions. This provides greater support for each center point arising from many surrounding pixels pointing towards the object center. We propose a formulation of center-directions that allows the problem to be split into the domain-specific dense regression of center-directions and the final localization task based on a small, lightweight, and domain-agnostic localization network that can be trained with synthetic data completely independent of the target domain. We demonstrate the performance of the proposed method on six different datasets for object counting and localization, and show that it outperforms the existing state-of-the-art methods. The code is accessible on GitHub at https://github.com/vicoslab/CeDiRNet.git.

arxiv情報

著者 Domen Tabernik,Jon Muhovič,Danijel Skočaj
発行日 2024-08-26 17:49:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク