要約
自動テキスト簡略化は、子供や新興バイリンガルなどの人々がテキストをよりアクセスしやすくするのに役立つ技術であり、エンコーダ/デコーダ モデルを使用して複雑な文から簡略化された文への単言語翻訳タスクとして考えられることがよくあります。
この見解は、簡略化されたテキストに新しい情報が追加される、詳細な簡略化を考慮していません。
この論文は、議論中の質問(QUD)フレームワークのレンズを通して詳細な単純化を見ることを提案し、詳細を質問に対する明確な回答とみなすことによって、作家が何を詳細に説明しているのか、どのように詳細を説明しているのか、詳細が談話の文脈にどのように適合しているのかを調査するための堅牢な方法を提供します。
暗黙の質問。
これらの現象を研究するために、暗黙的な QUD を伴う 1.3K のエラボレーションで構成される ElabQUD を導入します。
QUDを(質問生成を介して)明示的にモデル化すると、詳細な単純化と詳細な説明が談話の残りの部分とどのように接続されるかについての本質的な理解を提供するだけでなく、詳細な説明生成の品質も大幅に向上することを示します。
要約(オリジナル)
Automated text simplification, a technique useful for making text more accessible to people such as children and emergent bilinguals, is often thought of as a monolingual translation task from complex sentences to simplified sentences using encoder-decoder models. This view fails to account for elaborative simplification, where new information is added into the simplified text. This paper proposes to view elaborative simplification through the lens of the Question Under Discussion (QUD) framework, providing a robust way to investigate what writers elaborate upon, how they elaborate, and how elaborations fit into the discourse context by viewing elaborations as explicit answers to implicit questions. We introduce ElabQUD, consisting of 1.3K elaborations accompanied with implicit QUDs, to study these phenomena. We show that explicitly modeling QUD (via question generation) not only provides essential understanding of elaborative simplification and how the elaborations connect with the rest of the discourse, but also substantially improves the quality of elaboration generation.
arxiv情報
著者 | Yating Wu,William Sheffield,Kyle Mahowald,Junyi Jessy Li |
発行日 | 2023-10-24 14:00:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google