要約
デコーダ専用の大規模言語モデル (LLM) ベースの埋め込みモデルは、高密度ベクトルベースの検索などの汎用テキスト埋め込みタスクにおいて、BERT または T5 ベースの埋め込みモデルよりも優れたパフォーマンスを発揮し始めています。
この作業では、シンプルさと再現性を維持しながら、汎用性の高い埋め込みモデルとして LLM のパフォーマンスを大幅に向上させるための、さまざまなアーキテクチャ設計とトレーニング手順を備えた NV-Embed モデルを紹介します。
モデル アーキテクチャについては、プールされたエンベディングを取得するための潜在的なアテンション層を提案します。これにより、平均プーリングや LLM からの最後の
表現学習を強化するために、対照的なトレーニング中に LLM の因果的注意マスクを削除します。
モデルのトレーニングには、2 段階の対照的な命令調整方法を導入します。
まず、バッチ内のネガと厳選されたハード ネガの例を利用して、取得データセットに関する指示を含む対照的なトレーニングを適用します。
ステージ 2 では、さまざまな非検索データセットを命令チューニングにブレンドします。これにより、非検索タスクの精度が向上するだけでなく、検索パフォーマンスも向上します。
これらの技術を組み合わせた当社の NV-Embed モデルは、公開されているデータのみを使用して 69.32 という過去最高スコアを達成し、Massive Text Embedding Benchmark (MTEB) で第 1 位にランクされました (2024 年 5 月 24 日現在)。
タスクには、検索、再ランキング、分類、クラスタリング、および意味論的なテキスト類似タスクが含まれます。
特に、私たちのモデルは、MTEB ベンチマーク (BEIR とも呼ばれます) の 15 の検索タスクで最高スコア 59.36 も達成しています。
このモデルは https://huggingface.co/nvidia/NV-Embed-v1 でオープンソース化されます。
要約(オリジナル)
Decoder-only large language model (LLM)-based embedding models are beginning to outperform BERT or T5-based embedding models in general-purpose text embedding tasks, including dense vector-based retrieval. In this work, we introduce the NV-Embed model with a variety of architectural designs and training procedures to significantly enhance the performance of LLM as a versatile embedding model, while maintaining its simplicity and reproducibility. For model architecture, we propose a latent attention layer to obtain pooled embeddings, which consistently improves retrieval and downstream task accuracy compared to mean pooling or using the last
arxiv情報
著者 | Chankyu Lee,Rajarshi Roy,Mengyao Xu,Jonathan Raiman,Mohammad Shoeybi,Bryan Catanzaro,Wei Ping |
発行日 | 2024-05-27 17:59:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google