kNN-BOX: A Unified Framework for Nearest Neighbor Generation

要約

ベース ニューラル モデルをトークン レベルのシンボリック データストアで拡張することは、新しい生成パラダイムであり、機械翻訳 (MT) で有望な結果を達成しています。
この論文では、この新しいパラダイムの迅速な開発とインタラクティブな分析を可能にする統合フレームワーク kNN-BOX を紹介します。
kNN-BOX は、データストア拡張アプローチを 3 つのモジュール (データストア、リトリーバー、コンバイナー) に分解し、さまざまな kNN 生成方法を統一された方法にまとめます。
現在、kNN-BOX は 7 つの一般的な kNN-MT バリアントの実装を提供しており、パフォーマンスの向上から効率の最適化までの研究をカバーしています。
ユーザーは、これらの既存の作品を再現したり、独自のモデルをカスタマイズしたりするのは簡単です。
さらに、ユーザーは kNN-BOX を使用して kNN 生成システムと対話し、基礎となる推論プロセスを視覚化された方法でよりよく理解できます。
実験セクションでは、機械翻訳に kNN-BOX を適用し、他の 3 つの seq2seq 生成タスク、つまりテキストの簡略化、言い換え生成、質問生成を適用します。
実験結果は、基本ニューラル モデルを kNN-BOX で拡張すると、これらすべてのタスクで大幅なパフォーマンスの向上につながることが示されています。
kNN-BOX のコードとドキュメントは、https://github.com/NJUNLP/knn-box で入手できます。

要約(オリジナル)

Augmenting the base neural model with a token-level symbolic datastore is a novel generation paradigm and has achieved promising results in machine translation (MT). In this paper, we introduce a unified framework kNN-BOX, which enables quick development and interactive analysis for this novel paradigm. kNN-BOX decomposes the datastore-augmentation approach into three modules: datastore, retriever and combiner, thus putting diverse kNN generation methods into a unified way. Currently, kNN-BOX has provided implementation of seven popular kNN-MT variants, covering research from performance enhancement to efficiency optimization. It is easy for users to reproduce these existing works or customize their own models. Besides, users can interact with their kNN generation systems with kNN-BOX to better understand the underlying inference process in a visualized way. In the experiment section, we apply kNN-BOX for machine translation and three other seq2seq generation tasks, namely, text simplification, paraphrase generation and question generation. Experiment results show that augmenting the base neural model with kNN-BOX leads to a large performance improvement in all these tasks. The code and document of kNN-BOX is available at https://github.com/NJUNLP/knn-box.

arxiv情報

著者 Wenhao Zhu,Qianfeng Zhao,Yunzhe Lv,Shujian Huang,Siheng Zhao,Sizhe Liu,Jiajun Chen
発行日 2023-02-27 08:21:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク