CASE — Condition-Aware Sentence Embeddings for Conditional Semantic Textual Similarity Measurement

要約

文によって伝えられる意味は、しばしばそれが現れるコンテキストに依存します。
文の埋め込み方法の進行にもかかわらず、そのコンテキストに条件付けられた文の埋め込みを最適に変更する方法は不明のままです。
この問題に対処するために、特定の条件下で文の埋め込みを作成するための効率的かつ正確な方法である条件認識文の埋め込み(ケース)を提案します。
まず、ケースは、大規模な言語モデル(LLM)を使用して条件の埋め込みを作成します。この場合、文はプーリング中に条件のトークンに対して計算された注意スコアに影響します。
次に、LLMベースのテキスト埋め込みの次元を減らすために、監視された非線形投影が学習されます。
ケースは、既存の標準ベンチマークデータセットで、以前に提案された条件付きセマンティックテキスト類似性(C-STS)メソッドを大幅に上回ることを示します。
埋め込み条件を減算すると、LLMベースのテキスト埋め込みのC-STSパフォーマンスが一貫して改善されることがわかります。
さらに、LLMベースの埋め込みの次元を削減するだけでなく、パフォーマンスを大幅に向上させる監視された次元削減方法を提案します。

要約(オリジナル)

The meaning conveyed by a sentence often depends on the context in which it appears. Despite the progress of sentence embedding methods, it remains unclear how to best modify a sentence embedding conditioned on its context. To address this problem, we propose Condition-Aware Sentence Embeddings (CASE), an efficient and accurate method to create an embedding for a sentence under a given condition. First, CASE creates an embedding for the condition using a Large Language Model (LLM), where the sentence influences the attention scores computed for the tokens in the condition during pooling. Next, a supervised nonlinear projection is learned to reduce the dimensionality of the LLM-based text embeddings. We show that CASE significantly outperforms previously proposed Conditional Semantic Textual Similarity (C-STS) methods on an existing standard benchmark dataset. We find that subtracting the condition embedding consistently improves the C-STS performance of LLM-based text embeddings. Moreover, we propose a supervised dimensionality reduction method that not only reduces the dimensionality of LLM-based embeddings but also significantly improves their performance.

arxiv情報

著者 Gaifan Zhang,Yi Zhou,Danushka Bollegala
発行日 2025-03-21 16:27:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク