Explaining Text Similarity in Transformer Models

要約

Transformers が自然言語処理 (NLP) タスク用の最先端のモデルになるにつれて、その予測を理解し説明する必要性がますます明らかになってきています。
特に、情報検索タスクなどの教師なしアプリケーションでは、基礎モデル表現の上に構築された類似性モデルが広く適用されています。
しかし、その内部の予測メカニズムはほとんど不透明なままです。
説明可能な AI の最近の進歩により、レイヤーごとの関連性伝播 (LRP) によるトランスフォーマーの説明の改善を活用することで、これらの制限を軽減できるようになりました。
双一次類似性モデルで二次説明を計算するために開発された拡張機能である BiLRP を使用して、どの特徴量の相互作用が NLP モデルの類似性を促進するかを調査します。
結果として得られる説明を検証し、文法的相互作用、多言語意味論、生物医学的テキスト検索を分析する 3 つのコーパス レベルのユースケースでの有用性を実証します。
私たちの発見は、さまざまな意味的類似性タスクとモデルのより深い理解に貢献し、新しい説明可能な AI 手法がどのように詳細な分析とコーパスレベルの洞察を可能にするかを強調しています。

要約(オリジナル)

As Transformers have become state-of-the-art models for natural language processing (NLP) tasks, the need to understand and explain their predictions is increasingly apparent. Especially in unsupervised applications, such as information retrieval tasks, similarity models built on top of foundation model representations have been widely applied. However, their inner prediction mechanisms have mostly remained opaque. Recent advances in explainable AI have made it possible to mitigate these limitations by leveraging improved explanations for Transformers through layer-wise relevance propagation (LRP). Using BiLRP, an extension developed for computing second-order explanations in bilinear similarity models, we investigate which feature interactions drive similarity in NLP models. We validate the resulting explanations and demonstrate their utility in three corpus-level use cases, analyzing grammatical interactions, multilingual semantics, and biomedical text retrieval. Our findings contribute to a deeper understanding of different semantic similarity tasks and models, highlighting how novel explainable AI methods enable in-depth analyses and corpus-level insights.

arxiv情報

著者 Alexandros Vasileiou,Oliver Eberle
発行日 2024-05-10 17:11:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク