要約
NLP 内の多くのタスクは、シーケンスのタグ付けからテキスト生成に至るまで、逐次的な意思決定問題として組み立てることができます。
ただし、多くのタスクでは、最尤法 (教師による強制) やスケジュールされたサンプリングなどの標準的なトレーニング方法では、暴露バイアスや、トレーニングと推論中に使用されるメトリクス間の不一致が問題になります。
DAgger はこれらの問題を軽減するソリューションを提供しますが、メトリック固有の動的な Oracle アルゴリズムが必要です。このアルゴリズムは、スパンベースの F1、ROUGE、BLEU などの多くの一般的なメトリックには存在しません。
この論文では、これらの新しい動的オラクルを開発し、それらがスパンベースの F1 などの分解可能なメトリクスに対する DAgger の後悔のない保証を維持することを示します。
固有表現認識 (NER)、テキスト要約、機械翻訳 (MT) に関するアルゴリズムのパフォーマンスを評価します。
動的オラクルを備えた DAgger は、MT 実験ではそれほど好ましい結果は得られませんでしたが、NER とテキスト要約ではベースライン技術を上回りました。
要約(オリジナル)
Many tasks within NLP can be framed as sequential decision problems, ranging from sequence tagging to text generation. However, for many tasks, the standard training methods, including maximum likelihood (teacher forcing) and scheduled sampling, suffer from exposure bias and a mismatch between metrics employed during training and inference. DAgger provides a solution to mitigate these problems, yet it requires a metric-specific dynamic oracle algorithm, which does not exist for many common metrics like span-based F1, ROUGE, and BLEU. In this paper, we develop these novel dynamic oracles and show they maintain DAgger’s no-regret guarantee for decomposable metrics like span-based F1. We evaluate the algorithm’s performance on named entity recognition (NER), text summarization, and machine translation (MT). While DAgger with dynamic oracle yields less favorable results in our MT experiments, it outperforms the baseline techniques in NER and text summarization.
arxiv情報
著者 | Jianing Yang,Harshine Visvanathan,Yilin Wang,Xinyi Hu,Matthew Gormley |
発行日 | 2024-06-13 17:59:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google