要約
Few-shot segmentation (FSS)は、数個の注釈付きサンプルだけで、未知のクラスを分割することを目的としている。FSSでは、新しいクラスを表現するために、十分な訓練サンプルを持つ基本クラスから学習した意味的特徴を活用することで、心強い進展があった。相関に基づく手法は、実数値の2次元畳み込みの固有の性質により、2つの部分空間マッチングスコアの相互作用を考慮する能力がない。本論文では、相関学習に対する四元数の視点を導入し、四元数相関学習ネットワーク(QCLNet)を提案する。この目的は、高次元の相関テンソルの計算負荷を軽減し、四元数代数によって定義された演算を活用することによって、クエリとサポート画像間の内部潜在的相互作用を探索することにある。具体的には、我々のQCLNetは超複雑値ネットワークとして定式化され、四元数領域の相関テンソルを表現し、四元数空間におけるサポートサブ次元の隠れた関係を考慮する際に、クエリサブスペースの外部関係を探索する四元数コンボリューションを使用します。PASCAL-5iおよびCOCO-20iデータセットでの広範な実験により、本手法が既存の最先端手法を効果的に凌駕することが実証された。我々のコードは https://github.com/zwzheng98/QCLNet で入手可能である。
要約(オリジナル)
Few-shot segmentation (FSS) aims to segment unseen classes given only a few annotated samples. Encouraging progress has been made for FSS by leveraging semantic features learned from base classes with sufficient training samples to represent novel classes. The correlation-based methods lack the ability to consider interaction of the two subspace matching scores due to the inherent nature of the real-valued 2D convolutions. In this paper, we introduce a quaternion perspective on correlation learning and propose a novel Quaternion-valued Correlation Learning Network (QCLNet), with the aim to alleviate the computational burden of high-dimensional correlation tensor and explore internal latent interaction between query and support images by leveraging operations defined by the established quaternion algebra. Specifically, our QCLNet is formulated as a hyper-complex valued network and represents correlation tensors in the quaternion domain, which uses quaternion-valued convolution to explore the external relations of query subspace when considering the hidden relationship of the support sub-dimension in the quaternion space. Extensive experiments on the PASCAL-5i and COCO-20i datasets demonstrate that our method outperforms the existing state-of-the-art methods effectively. Our code is available at https://github.com/zwzheng98/QCLNet
arxiv情報
著者 | Zewen Zheng,Guoheng Huang,Xiaochen Yuan,Chi-Man Pun,Hongrui Liu,Wing-Kuen Ling |
発行日 | 2023-05-12 06:56:22+00:00 |
arxivサイト | arxiv_id(pdf) |