要約
トランスフォーマーベースの自然言語理解 (NLU) モデルの新たな機能に関する最近の研究では、NLU モデルが語彙的および構成的意味論を理解していることが示されています。
私たちは、これらの主張を割り引いて受け止めるべきであることを示唆する証拠を提供します。最先端の自然言語推論 (NLI) モデルは、表面形式のバリエーションを保存するマイナーな意味論に敏感であり、それがかなりの一貫性のないモデルにつながることがわかりました。
推論中の決定。
注目すべきことに、この動作は構成意味論の有効で深い理解とは異なりますが、標準ベンチマークでモデルの精度を評価する場合や、構文的、単調で論理的に堅牢な推論を調査する場合には現れません。
意味的感度の程度を測定するための新しいフレームワークを提案します。
この目的を達成するために、マイナーなセマンティクスを保持する表面形式の入力ノイズを含む、敵対的に生成されたサンプルで NLI モデルを評価します。
これは、NLI モデルが元の入力と敵対的な入力の間の関係を対称等価含意として予測するという明示的な条件を備えた条件付きテキスト生成を使用して実現されます。
$\textbf{in-}$ および $\textbf{out-of-}$ ドメイン設定の NLI モデル全体にわたる現象の影響を体系的に研究します。
私たちの実験によると、セマンティックの機密性により、$\textbf{in-}$ および $\textbf{out-of-}$ のドメイン設定で、それぞれ平均 $12.92\%$ と $23.71\%$ のパフォーマンス低下が発生することがわかりました。
さらにアブレーション研究を実行し、モデル、データセット、推論のバリエーション全体でこの現象を分析し、意味論的な感度がモデル予測内で大きな不一致を引き起こす可能性があることを示します。
要約(オリジナル)
Recent studies of the emergent capabilities of transformer-based Natural Language Understanding (NLU) models have indicated that they have an understanding of lexical and compositional semantics. We provide evidence that suggests these claims should be taken with a grain of salt: we find that state-of-the-art Natural Language Inference (NLI) models are sensitive towards minor semantics preserving surface-form variations, which lead to sizable inconsistent model decisions during inference. Notably, this behaviour differs from valid and in-depth comprehension of compositional semantics, however does neither emerge when evaluating model accuracy on standard benchmarks nor when probing for syntactic, monotonic, and logically robust reasoning. We propose a novel framework to measure the extent of semantic sensitivity. To this end, we evaluate NLI models on adversarially generated examples containing minor semantics-preserving surface-form input noise. This is achieved using conditional text generation, with the explicit condition that the NLI model predicts the relationship between the original and adversarial inputs as a symmetric equivalence entailment. We systematically study the effects of the phenomenon across NLI models for $\textbf{in-}$ and $\textbf{out-of-}$ domain settings. Our experiments show that semantic sensitivity causes performance degradations of $12.92\%$ and $23.71\%$ average over $\textbf{in-}$ and $\textbf{out-of-}$ domain settings, respectively. We further perform ablation studies, analysing this phenomenon across models, datasets, and variations in inference and show that semantic sensitivity can lead to major inconsistency within model predictions.
arxiv情報
著者 | Erik Arakelyan,Zhaoqi Liu,Isabelle Augenstein |
発行日 | 2024-01-31 10:52:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google