ER-Test: Evaluating Explanation Regularization Methods for Language Models

要約

人間が与えられたタスクをどのように解決するかを説明することで、人間の理論的根拠はニューラル言語モデル (LM) に強力な学習信号を提供できます。
説明の正則化 (ER) は、LM のマシンの論理的根拠 (LM が注目した入力トークンはどれか?) を人間の論理的根拠 (人間が注目する入力トークンはどれか?) と一致させることによって、LM の一般化を改善することを目的としています。
以前の研究では主に分布内 (ID) 評価を介して ER が研究されていましたが、実際のシナリオでは分布外 (OOD) の一般化がより重要になることがよくありますが、OOD の一般化に対する ER の影響は十分に調査されていません。
このホワイト ペーパーでは、ER モデルの OOD 一般化を 3 つの次元 (見えないデータセット テスト、コントラスト セット テスト、機能テスト) に沿って評価するためのフレームワークである ER-Test を紹介します。
ER-Test を使用して、ER モデルの OOD 一般化が ER 設計の選択によってどのように変化するかを広範囲に分析します。
2 つのタスクと 6 つのデータセットにわたって、ER-Test は、ER が ID のパフォーマンスにほとんど影響を与えないが、OOD のパフォーマンスが大幅に向上することを示しています。
また、理論的根拠の監督が限定されていても、ER は OOD のパフォーマンスを向上させることができることがわかりました。
ER-Test の結果は、ER の有用性を実証し、ER を効果的に使用するためのベスト プラクティスを確立するのに役立ちます。

要約(オリジナル)

By explaining how humans would solve a given task, human rationales can provide strong learning signal for neural language models (LMs). Explanation regularization (ER) aims to improve LM generalization by pushing the LM’s machine rationales (Which input tokens did the LM focus on?) to align with human rationales (Which input tokens would humans focus on?). Though prior works primarily study ER via in-distribution (ID) evaluation, out-of-distribution (OOD) generalization is often more critical in real-world scenarios, yet ER’s effect on OOD generalization has been underexplored. In this paper, we introduce ER-Test, a framework for evaluating ER models’ OOD generalization along three dimensions: unseen dataset tests, contrast set tests, and functional tests. Using ER-Test, we extensively analyze how ER models’ OOD generalization varies with different ER design choices. Across two tasks and six datasets, ER-Test shows that ER has little impact on ID performance but can yield large OOD performance gains. Also, we find that ER can improve OOD performance even with limited rationale supervision. ER-Test’s results help demonstrate ER’s utility and establish best practices for using ER effectively.

arxiv情報

著者 Brihi Joshi,Aaron Chan,Ziyi Liu,Shaoliang Nie,Maziar Sanjabi,Hamed Firooz,Xiang Ren
発行日 2023-02-28 02:04:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク