要約
オーディオは私たちの周りの世界をどのように説明しますか?
本論文では,音からシーンの画像を生成する方法を提案する.
私たちの方法は、視覚と音の間にしばしば存在する大きなギャップに対処するという課題に対処します。
各モデル コンポーネントの学習手順をスケジューリングして、情報のギャップにもかかわらず視聴覚モダリティを関連付けることによって機能するモデルを設計します。
重要なアイデアは、オーディオを視覚的な潜在空間に合わせることを学習することにより、オーディオ機能を視覚情報で強化することです。
入力音声を視覚的特徴に変換し、事前トレーニング済みのジェネレーターを使用して画像を生成します。
生成された画像の品質をさらに向上させるために、音源定位を使用して、クロスモーダル相関が強い視聴覚ペアを選択します。
VEGAS および VGGSound データセットでは、以前のアプローチよりも大幅に優れた結果が得られます。
また、入力波形または潜在空間に単純な操作を適用することで、モデルの予測を制御できることも示します。
要約(オリジナル)
How does audio describe the world around us? In this paper, we propose a method for generating an image of a scene from sound. Our method addresses the challenges of dealing with the large gaps that often exist between sight and sound. We design a model that works by scheduling the learning procedure of each model component to associate audio-visual modalities despite their information gaps. The key idea is to enrich the audio features with visual information by learning to align audio to visual latent space. We translate the input audio to visual features, then use a pre-trained generator to produce an image. To further improve the quality of our generated images, we use sound source localization to select the audio-visual pairs that have strong cross-modal correlations. We obtain substantially better results on the VEGAS and VGGSound datasets than prior approaches. We also show that we can control our model’s predictions by applying simple manipulations to the input waveform, or to the latent space.
arxiv情報
著者 | Kim Sung-Bin,Arda Senocak,Hyunwoo Ha,Andrew Owens,Tae-Hyun Oh |
発行日 | 2023-03-30 16:01:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google