要約
画像間変換は、コンピュータビジョンの合成データを実現する上で重要な役割を担っている。しかし、元ドメインとターゲットドメインの意味的な不一致が大きい場合、既存の技術はしばしば元コンテンツの破損、すなわち意味的な反転に悩まされる。この問題に対処するため、我々は、高次元ベクトル(ハイパーベクトル)空間における代数演算を定義する理論的枠組みであるVector Symbolic Architectures(VSA)を用いた画像間変換の新しいパラダイムを提案する。我々は、ソースコンテンツとの整合性を確保するために翻訳を反転させるハイパーベクトルマッピングを学習することにより、ソースからターゲットへの翻訳に対する敵対的学習に対するVSAに基づく制約を導入する。本手法が他の最先端技術よりも改善されることを定性的にも定量的にも示す。
要約(オリジナル)
Image-to-image translation has played an important role in enabling synthetic data for computer vision. However, if the source and target domains have a large semantic mismatch, existing techniques often suffer from source content corruption aka semantic flipping. To address this problem, we propose a new paradigm for image-to-image translation using Vector Symbolic Architectures (VSA), a theoretical framework which defines algebraic operations in a high-dimensional vector (hypervector) space. We introduce VSA-based constraints on adversarial learning for source-to-target translations by learning a hypervector mapping that inverts the translation to ensure consistency with source content. We show both qualitatively and quantitatively that our method improves over other state-of-the-art techniques.
arxiv情報
著者 | Justin Theiss,Jay Leverett,Daeil Kim,Aayush Prakash |
発行日 | 2022-09-06 17:53:57+00:00 |
arxivサイト | arxiv_id(pdf) |