Language Modeling with Editable External Knowledge

要約

世界が変われば、それについて人間が書く文章も変わります。
これらの変更を反映するために簡単に更新できる言語モデルを構築するにはどうすればよいでしょうか?
一般的なアプローチの 1 つは検索拡張生成です。この生成では、新しいドキュメントがナレッジ ベースに挿入され、下流タスクの予測中に取得されます。
これらのシステムに関するこれまでの研究のほとんどは、より適切な検索や推論を通じて、予測中の動作を改善することに焦点を当てていました。
このペーパーでは、ドキュメントが追加されるたびにナレッジ ベース内の他のエントリを段階的に削除または書き換えることにより、新しいドキュメントを取得したときのモデルの動作を改善する ERASE を紹介します。
一連のニュース記事や会話に関する質問に答えるモデルの能力を評価する 2 つの新しいベンチマーク データセットでは、ERASE により、従来の検索拡張生成と比較して精度が 7 ~ 13% (Mixtral-8x7B) および 6 ~ 10% (Llama-3) 向上しました。
-8B) 絶対。
コードとデータは https://github.com/belindal/ERASE で入手できます。

要約(オリジナル)

When the world changes, so does the text that humans write about it. How do we build language models that can be easily updated to reflect these changes? One popular approach is retrieval-augmented generation, in which new documents are inserted into a knowledge base and retrieved during prediction for downstream tasks. Most prior work on these systems have focused on improving behavior during prediction through better retrieval or reasoning. This paper introduces ERASE, which instead improves model behavior when new documents are acquired, by incrementally deleting or rewriting other entries in the knowledge base each time a document is added. In two new benchmark datasets evaluating models’ ability to answer questions about a stream of news articles or conversations, ERASE improves accuracy relative to conventional retrieval-augmented generation by 7-13% (Mixtral-8x7B) and 6-10% (Llama-3-8B) absolute. Code and data are available at https://github.com/belindal/ERASE

arxiv情報

著者 Belinda Z. Li,Emmy Liu,Alexis Ross,Abbas Zeitoun,Graham Neubig,Jacob Andreas
発行日 2024-06-17 17:59:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク