要約
カメラを備えたデジタル機器の普及とインターネット技術の急速な発展により、近年、コンテンツベースの画像検索システムや新しい画像特徴抽出技術が多数登場しています。
この論文では、検索速度と精度を向上させるために、不変クラウチョーク モーメント (SM-IKM) を使用した顕著性マップ ベースの画像検索アプローチを紹介します。
提案された方法は、グローバル コントラスト ベースの顕著領域検出アルゴリズムを適用して、前景を背景から効果的に分離する顕著性マップを作成します。
次に、複数の次数の不変クラウチョーク モーメント (IKM) をローカル バイナリ パターン (LBP) およびカラー ヒストグラムと組み合わせて、前景と背景を包括的に表現します。
さらに、顕著性マップから導出された LBP を組み込んで識別力を向上させ、より正確な画像の区別を容易にします。
Bag-of-Visual-Words (BoVW) モデルを使用して、分類と識別のためのコードブックを生成します。
BoVW フレームワークでコンパクトな IKM を使用し、カラー ヒストグラム、LBP、顕著性マップで強化された LBP を含む一連の領域ベースの特徴を統合することにより、私たちが提案する SM-IKM は効率的かつ正確な画像検索を実現します。
Caltech 101 や Wang などの公的に利用可能なデータセットに対する広範な実験により、SM-IKM が最近の最先端の検索方法よりも優れたパフォーマンスを発揮することが実証されました。
SM-IKM のソース コードは、github.com/arnejad/SMIKM で入手できます。
要約(オリジナル)
With the widespread adoption of digital devices equipped with cameras and the rapid development of Internet technology, numerous content-based image retrieval systems and novel image feature extraction techniques have emerged in recent years. This paper introduces a saliency map-based image retrieval approach using invariant Krawtchouk moments (SM-IKM) to enhance retrieval speed and accuracy. The proposed method applies a global contrast-based salient region detection algorithm to create a saliency map that effectively isolates the foreground from the background. It then combines multiple orders of invariant Krawtchouk moments (IKM) with local binary patterns (LBPs) and color histograms to comprehensively represent the foreground and background. Additionally, it incorporates LBPs derived from the saliency map to improve discriminative power, facilitating more precise image differentiation. A bag-of-visual-words (BoVW) model is employed to generate a codebook for classification and discrimination. By using compact IKMs in the BoVW framework and integrating a range of region-based feature-including color histograms, LBPs, and saliency map-enhanced LBPs, our proposed SM-IKM achieves efficient and accurate image retrieval. xtensive experiments on publicly available datasets, such as Caltech 101 and Wang, demonstrate that SM-IKM outperforms recent state-of-the-art retrieval methods. The source code for SM-IKM is available at github.com/arnejad/SMIKM.
arxiv情報
著者 | Ashkan Nejad,Mohammad Reza Faraji,Xiaojun Qi |
発行日 | 2024-11-13 12:27:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google