Demystifying Embedding Spaces using Large Language Models

要約

埋め込みは、エンティティ、概念、関係に関する複雑で多面的な情報を、凝縮された有用な形式で表現するための極めて重要な手段となっています。
それにもかかわらず、それらは直接的な解釈を妨げることがよくあります。
下流のタスクではこれらの圧縮表現が使用されますが、意味のある解釈には通常、次元削減または特殊な機械学習の解釈可能性メソッドを使用した視覚化が必要です。
この論文では、ラージ言語モデル (LLM) を使用してエンベディングと直接対話し、抽象的なベクトルを理解可能なナラティブに変換することで、そのようなエンベディングをより解釈可能で広く有用なものにするという課題に取り組んでいます。
LLM に埋め込みを挿入することで、複雑な埋め込みデータのクエリと探索が可能になります。
私たちは、概念活性化ベクトル (CAV) の強化、新しい埋め込みエンティティの通信、レコメンダー システムでのユーザー設定のデコードなど、さまざまなタスクに対するアプローチを実証します。
私たちの研究では、埋め込みの計り知れない情報の可能性と LLM の解釈力を組み合わせています。

要約(オリジナル)

Embeddings have become a pivotal means to represent complex, multi-faceted information about entities, concepts, and relationships in a condensed and useful format. Nevertheless, they often preclude direct interpretation. While downstream tasks make use of these compressed representations, meaningful interpretation usually requires visualization using dimensionality reduction or specialized machine learning interpretability methods. This paper addresses the challenge of making such embeddings more interpretable and broadly useful, by employing Large Language Models (LLMs) to directly interact with embeddings — transforming abstract vectors into understandable narratives. By injecting embeddings into LLMs, we enable querying and exploration of complex embedding data. We demonstrate our approach on a variety of diverse tasks, including: enhancing concept activation vectors (CAVs), communicating novel embedded entities, and decoding user preferences in recommender systems. Our work couples the immense information potential of embeddings with the interpretative power of LLMs.

arxiv情報

著者 Guy Tennenholtz,Yinlam Chow,Chih-Wei Hsu,Jihwan Jeong,Lior Shani,Azamat Tulepbergenov,Deepak Ramachandran,Martin Mladenov,Craig Boutilier
発行日 2024-03-13 17:40:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク