Sentence Simplification via Large Language Models

要約

文の簡略化は、元の意味を保持しながら、複雑な文をより単純な文に言い換えることを目的としています。
大規模言語モデル (LLM) は、さまざまな自然言語処理タスクを実行する能力を実証しています。
ただし、LLM が高品質の文簡略化システムとして機能するかどうかはまだわかっていません。
この作業では、多数のベンチマーク テスト セットで LLM を評価することにより、LLM のゼロ/少数ショット学習能力を経験的に分析します。
実験結果によると、LLM は最先端の文簡略化手法よりも優れており、人間のアノテーターと同等であると判断されています。

要約(オリジナル)

Sentence Simplification aims to rephrase complex sentences into simpler sentences while retaining original meaning. Large Language models (LLMs) have demonstrated the ability to perform a variety of natural language processing tasks. However, it is not yet known whether LLMs can be served as a high-quality sentence simplification system. In this work, we empirically analyze the zero-/few-shot learning ability of LLMs by evaluating them on a number of benchmark test sets. Experimental results show LLMs outperform state-of-the-art sentence simplification methods, and are judged to be on a par with human annotators.

arxiv情報

著者 Yutao Feng,Jipeng Qiang,Yun Li,Yunhao Yuan,Yi Zhu
発行日 2023-02-23 12:11:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク