要約
テキストの埋め込みモデルとテキスト埋め込みモデルは、多くのAIおよびNLPシステム、特に検索を含むバックボーンです。
ただし、特に得られた類似性スコアを説明する際には、解釈可能性の課題が持続します。これは、透明性を必要とするアプリケーションにとって重要です。
この論文では、新しい研究分野であるこれらの類似性スコアの説明に特化した解釈可能性方法の構造化された概要を説明します。
方法の個々のアイデアとテクニックを研究し、テキストの埋め込みの解釈可能性を改善する可能性を評価し、予測された類似性を説明します。
要約(オリジナル)
Text embeddings and text embedding models are a backbone of many AI and NLP systems, particularly those involving search. However, interpretability challenges persist, especially in explaining obtained similarity scores, which is crucial for applications requiring transparency. In this paper, we give a structured overview of interpretability methods specializing in explaining those similarity scores, an emerging research area. We study the methods’ individual ideas and techniques, evaluating their potential for improving interpretability of text embeddings and explaining predicted similarities.
arxiv情報
著者 | Juri Opitz,Lucas Möller,Andrianos Michail,Simon Clematide |
発行日 | 2025-02-20 18:59:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google