Generative Bias for Visual Question Answering

要約

Visual Question Answering (VQA) のタスクは、データセット内のバイアスを利用して最終的な予測を行う VQA モデルの問題に悩まされていることが知られています。
堅牢なターゲット モデルのトレーニングを支援するために、追加のモデルが意図的にバイアスされるようにトレーニングされる、以前の多くのアンサンブル ベースのバイアス緩和方法が提案されています。
ただし、これらのメソッドは、トレーニング データのラベル統計から、または単一のモーダル ブランチから直接、モデルのバイアスを計算します。
対照的に、この作業では、ターゲット VQA モデルが受けるバイアスをよりよく学習するために、GenB と呼ばれるバイアス モデル\emph{ターゲット モデルから直接}をトレーニングする生成的方法を提案します。
特に、GenB は生成ネットワークを使用して、敵対的な目的と知識の蒸留の組み合わせを通じてバイアスを学習します。
次に、バイアス モデルとして GenB を使用してターゲット モデルのバイアスを取り除き、広範な実験を通じて、VQA-CP2、VQA-CP1、GQA-OOD、および VQA-CE を含むさまざまな VQA バイアス データセットに対するこの方法の効果を示します。

要約(オリジナル)

The task of Visual Question Answering (VQA) is known to be plagued by the issue of VQA models exploiting biases within the dataset to make its final prediction. Many previous ensemble based debiasing methods have been proposed where an additional model is purposefully trained to be biased in order to aid in training a robust target model. However, these methods compute the bias for a model from the label statistics of the training data or directly from single modal branches. In contrast, in this work, in order to better learn the bias a target VQA model suffers from, we propose a generative method to train the bias model \emph{directly from the target model}, called GenB. In particular, GenB employs a generative network to learn the bias through a combination of the adversarial objective and knowledge distillation. We then debias our target model with GenB as a bias model, and show through extensive experiments the effects of our method on various VQA bias datasets including VQA-CP2, VQA-CP1, GQA-OOD, and VQA-CE.

arxiv情報

著者 Jae Won Cho,Dong-jin Kim,Hyeonggon Ryu,In So Kweon
発行日 2022-08-01 08:58:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG パーマリンク