MTEB: Massive Text Embedding Benchmark

要約

テキストの埋め込みは、通常、単一のタスクからの小さなセットのデータセットで評価され、他のタスクへの可能なアプリケーションはカバーされていません。
セマンティック テキスト類似性 (STS) に関する最先端の埋め込みが、クラスタリングや再ランキングなどの他のタスクにも同様に適用できるかどうかは不明です。
これは、適切な評価なしにさまざまなモデルが常に提案されているため、この分野の進歩を追跡することを困難にしています。
この問題を解決するために、Massive Text Embedding Benchmark (MTEB) を導入しました。
MTEB は、合計 58 のデータセットと 112 の言語をカバーする 8 つの埋め込みタスクにまたがっています。
MTEB での 33 のモデルのベンチマークを通じて、これまでで最も包括的なテキスト埋め込みのベンチマークを確立しました。
すべてのタスクで特定のテキスト埋め込み方法が支配的ではないことがわかりました。
これは、この分野がまだ普遍的なテキスト埋め込み方法に収束し、すべての埋め込みタスクで最先端の結果を提供できるように十分にスケールアップしていないことを示唆しています。
MTEB には、オープンソース コードと https://github.com/embeddings-benchmark/mteb の公開リーダーボードが付属しています。

要約(オリジナル)

Text embeddings are commonly evaluated on a small set of datasets from a single task not covering their possible applications to other tasks. It is unclear whether state-of-the-art embeddings on semantic textual similarity (STS) can be equally well applied to other tasks like clustering or reranking. This makes progress in the field difficult to track, as various models are constantly being proposed without proper evaluation. To solve this problem, we introduce the Massive Text Embedding Benchmark (MTEB). MTEB spans 8 embedding tasks covering a total of 58 datasets and 112 languages. Through the benchmarking of 33 models on MTEB, we establish the most comprehensive benchmark of text embeddings to date. We find that no particular text embedding method dominates across all tasks. This suggests that the field has yet to converge on a universal text embedding method and scale it up sufficiently to provide state-of-the-art results on all embedding tasks. MTEB comes with open-source code and a public leaderboard at https://github.com/embeddings-benchmark/mteb.

arxiv情報

著者 Niklas Muennighoff,Nouamane Tazi,Loïc Magne,Nils Reimers
発行日 2023-03-19 13:37:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR, cs.LG パーマリンク