要約
テキスト埋め込みモデルは、文章を意味情報をカプセル化した固定サイズの特徴ベクトルに変換するための強力なツールとして登場した。これらのモデルは、情報検索、意味クラスタリング、テキスト再ランキングなどのタスクに不可欠であるが、既存のオープンソースモデル、特にBERTのようなアーキテクチャ上に構築されたモデルのほとんどは、長い文書を表現するのに苦労しており、しばしば切り捨てに頼っている。この課題を軽減するための一般的なアプローチとして、文書を小さな段落に分割して埋め込む方法がある。しかし、この戦略では、ベクトル集合が非常に大きくなり、その結果、メモリ消費量が増大し、計算集約的なベクトル検索になり、待ち時間が増大する。 このような課題に対処するため、最大8192個のトークンに対応可能なオープンソースのテキスト埋め込みモデル、Jina Embeddings 2を紹介する。このモデルは、従来の512トークンの制限を超え、長い文書を巧みに処理するように設計されている。Jina Embeddings 2は、MTEBベンチマークにおける様々な埋め込み関連タスクで最先端の性能を達成しただけでなく、OpenAIが独自に開発したada-002モデルの性能にも匹敵します。さらに、我々の実験は、拡張されたコンテキストがNarrativeQAのようなタスクのパフォーマンスを向上させることを示しています。
要約(オリジナル)
Text embedding models have emerged as powerful tools for transforming sentences into fixed-sized feature vectors that encapsulate semantic information. While these models are essential for tasks like information retrieval, semantic clustering, and text re-ranking, most existing open-source models, especially those built on architectures like BERT, struggle to represent lengthy documents and often resort to truncation. One common approach to mitigate this challenge involves splitting documents into smaller paragraphs for embedding. However, this strategy results in a much larger set of vectors, consequently leading to increased memory consumption and computationally intensive vector searches with elevated latency. To address these challenges, we introduce Jina Embeddings 2, an open-source text embedding model capable of accommodating up to 8192 tokens. This model is designed to transcend the conventional 512-token limit and adeptly process long documents. Jina Embeddings 2 not only achieves state-of-the-art performance on a range of embedding-related tasks in the MTEB benchmark but also matches the performance of OpenAI’s proprietary ada-002 model. Additionally, our experiments indicate that an extended context can enhance performance in tasks such as NarrativeQA.
arxiv情報
著者 | Michael Günther,Jackmin Ong,Isabelle Mohr,Alaeddine Abdessalem,Tanguy Abel,Mohammad Kalim Akram,Susana Guzman,Georgios Mastrapas,Saba Sturua,Bo Wang,Maximilian Werk,Nan Wang,Han Xiao |
発行日 | 2024-01-03 13:26:41+00:00 |
arxivサイト | arxiv_id(pdf) |