要約
時間表現 (TE) の正規化は、よく研究されている問題です。
しかし、主に使用されているルールベースのシステムは特定の設定に大きく制限されており、今後の機械学習アプローチはラベル付きデータの不足に悩まされています。
この研究では、コンテキスト内学習を使用してタスク、ドキュメント、サンプル情報をモデルに注入する TE 正規化のための独自のオープンソース大規模言語モデル (LLM) の実現可能性を調査します。
最も関連性の高い例のセットを取得するために、さまざまなサンプル選択戦略を検討します。
ウィンドウベースのプロンプト設計アプローチを使用することで、モデルをトレーニングせずに LLM の知識を活用しながら、文全体で TE 正規化を実行できます。
私たちの実験では、このタスク用に設計されたモデルと競合する結果が得られました。
特に、私たちの方法は、推論中に関連する例を動的に含めることにより、非標準設定のパフォーマンスを大幅に向上させます。
要約(オリジナル)
Temporal expression (TE) normalization is a well-studied problem. However, the predominately used rule-based systems are highly restricted to specific settings, and upcoming machine learning approaches suffer from a lack of labeled data. In this work, we explore the feasibility of proprietary and open-source large language models (LLMs) for TE normalization using in-context learning to inject task, document, and example information into the model. We explore various sample selection strategies to retrieve the most relevant set of examples. By using a window-based prompt design approach, we can perform TE normalization across sentences, while leveraging the LLM knowledge without training the model. Our experiments show competitive results to models designed for this task. In particular, our method achieves large performance improvements for non-standard settings by dynamically including relevant examples during inference.
arxiv情報
著者 | Akash Kumar Gautam,Lukas Lange,Jannik Strötgen |
発行日 | 2024-04-11 14:13:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google