要約
Co-Salient Object Detection(Co-SOD)は、関連する画像のグループ全体で共通の顕著なオブジェクトを識別することを目的としています。
最近の方法は顕著な進歩を遂げていますが、通常、低レベルの視覚パターンに依存し、セマンティックな事前に欠けているため、検出パフォーマンスが制限されています。
ConceptCosodを提案します。これは、協調性検出を強化するために高レベルのセマンティック知識を導入するコンセプトガイド付きフレームワークです。
入力画像グループから共有されたテキストベースの概念を抽出することにより、ConceptCoSODは、検出プロセスを固定するセマンティックガイダンスを提供します。
概念の品質をさらに向上させるために、拡散タイムステップの効果を分析し、堅牢な概念を学習するためのより有益な手順を選択するリサンプリング戦略を設計します。
このセマンティックな事前は、再サンプリングが強化された表現と組み合わせて、視覚的条件に挑戦しても、正確で一貫したセグメンテーションを可能にします。
3つのベンチマークデータセットと5つの破損した設定での広範な実験は、ConceptCoSODが精度と一般化の両方で既存の方法を大幅に上回ることを示しています。
要約(オリジナル)
Co-salient object detection (Co-SOD) aims to identify common salient objects across a group of related images. While recent methods have made notable progress, they typically rely on low-level visual patterns and lack semantic priors, limiting their detection performance. We propose ConceptCoSOD, a concept-guided framework that introduces high-level semantic knowledge to enhance co-saliency detection. By extracting shared text-based concepts from the input image group, ConceptCoSOD provides semantic guidance that anchors the detection process. To further improve concept quality, we analyze the effect of diffusion timesteps and design a resampling strategy that selects more informative steps for learning robust concepts. This semantic prior, combined with the resampling-enhanced representation, enables accurate and consistent segmentation even in challenging visual conditions. Extensive experiments on three benchmark datasets and five corrupted settings demonstrate that ConceptCoSOD significantly outperforms existing methods in both accuracy and generalization.
arxiv情報
著者 | Jiayi Zhu,Qing Guo,Felix Juefei-Xu,Yihao Huang,Yang Liu,Geguang Pu |
発行日 | 2025-06-17 13:19:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google