UDApter — Efficient Domain Adaptation Using Adapters

要約

大規模な事前トレーニング済み言語モデル (PLM) のすべてのレイヤーに散在する小さなボトルネック レイヤーであるアダプターを使用して、教師なしドメイン適応 (UDA) のパラメーターをより効率的にする 2 つの方法を提案します。
最初の方法では、UDA を 2 段階のプロセスに分解します。最初にドメイン アダプターを追加してドメイン不変情報を学習し、次にドメイン不変情報を使用してソース ドメインのタスク表現を学習するタスク アダプターを追加します。
2 番目の方法は、発散測度を減らしながら、教師あり分類器を共同で学習します。
強力なベースラインと比較して、単純な方法は自然言語推論 (MNLI) とクロスドメインの感情分類タスクでうまく機能します。
感情分類では、DANN や DSN などの教師なしドメイン適応法よりも優れており、完全なモデル パラメーターの一部のみを微調整することで、自然言語推論タスクの F1 を 0.85% 以内に収めています。
https://github.com/declare-lab/domadapter でコードをリリースします

要約(オリジナル)

We propose two methods to make unsupervised domain adaptation (UDA) more parameter efficient using adapters, small bottleneck layers interspersed with every layer of the large-scale pre-trained language model (PLM). The first method deconstructs UDA into a two-step process: first by adding a domain adapter to learn domain-invariant information and then by adding a task adapter that uses domain-invariant information to learn task representations in the source domain. The second method jointly learns a supervised classifier while reducing the divergence measure. Compared to strong baselines, our simple methods perform well in natural language inference (MNLI) and the cross-domain sentiment classification task. We even outperform unsupervised domain adaptation methods such as DANN and DSN in sentiment classification, and we are within 0.85% F1 for natural language inference task, by fine-tuning only a fraction of the full model parameters. We release our code at https://github.com/declare-lab/domadapter

arxiv情報

著者 Bhavitvya Malik,Abhinav Ramesh Kashyap,Min-Yen Kan,Soujanya Poria
発行日 2023-02-16 08:17:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク