要約
トランスフォーマーを使用した視覚的顕著性予測-畳み込みニューラルネットワーク(CNN)は、顕著性予測のための非常に高度な計算モデリングを備えています。
ただし、人間の皮質の視覚的注意のメカニズムを正確にシミュレートすることは、学術的な課題のままです。
人間の視覚の特性をCNNアーキテクチャの設計に統合することが重要であり、知覚的により適切な顕著性予測につながります。
CNNアーキテクチャに固有の誘導バイアスのため、十分な長距離コンテキストエンコーディング容量が不足しています。
これは、CNNベースの顕著性モデルが人間の視聴行動をエミュレートするプロパティをキャプチャするのを妨げます。
トランスフォーマーは、自己注意メカニズムを活用することにより、長距離情報をエンコードする大きな可能性を示しています。
この論文では、変圧器コンポーネントをCNNに統合して、長距離のコンテキスト視覚情報をキャプチャする新しい顕著性モデルを提案します。
実験結果は、トランスフォーマーが顕著性予測に付加価値を提供し、パフォーマンスにおける知覚的関連性を強化することを示しています。
変圧器を使用して提案された顕著性モデルは、顕著性予測モデルの公開ベンチマークおよび競合で優れた結果を達成しました。
提案されている顕著性モデルTranSalNetのソースコードは、https://github.com/LJOVO/TranSalNetで入手できます。
要約(オリジナル)
Visual saliency prediction using transformers – Convolutional neural networks (CNNs) have significantly advanced computational modelling for saliency prediction. However, accurately simulating the mechanisms of visual attention in the human cortex remains an academic challenge. It is critical to integrate properties of human vision into the design of CNN architectures, leading to perceptually more relevant saliency prediction. Due to the inherent inductive biases of CNN architectures, there is a lack of sufficient long-range contextual encoding capacity. This hinders CNN-based saliency models from capturing properties that emulate viewing behaviour of humans. Transformers have shown great potential in encoding long-range information by leveraging the self-attention mechanism. In this paper, we propose a novel saliency model that integrates transformer components to CNNs to capture the long-range contextual visual information. Experimental results show that the transformers provide added value to saliency prediction, enhancing its perceptual relevance in the performance. Our proposed saliency model using transformers has achieved superior results on public benchmarks and competitions for saliency prediction models. The source code of our proposed saliency model TranSalNet is available at: https://github.com/LJOVO/TranSalNet
arxiv情報
著者 | Jianxun Lou,Hanhe Lin,David Marshall,Dietmar Saupe,Hantao Liu |
発行日 | 2022-06-29 16:44:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google