要約
膨大な量の学術論文が毎日出版されていますが、その多くは専門用語が多く複雑な言葉が使われているため、一般の人々がアクセスできないままになっています。
科学コミュニケーションにおけるこの課題に対処するために、言語モデルを微調整して学術的な要約をよりわかりやすいバージョンに書き直す強化学習フレームワークを導入します。
私たちの言語モデルは、単語レベルと文レベルのアクセシビリティ報酬の慎重にバランスのとれた組み合わせによって導かれ、専門用語をよりアクセシブルな代替物に効果的に置き換えます。これは、微調整されたモデルや従来の読みやすさの尺度によって監視されたモデルでは達成するのが困難なタスクです。
私たちの最良のモデルは、学術要旨の読みやすさのレベルを米国の学年レベルの約 6 段階分、つまり大学院レベルから高校レベルまで調整します。
これは、事実の正確さと高品質な表現を維持しながら、監視付き微調整ベースラインよりも相対的に約 90% 向上したことになります。
私たちのアプローチを詳細に分析したところ、バランスの取れた報酬が基本モデルの体系的な変更につながり、よりスムーズな最適化と優れたパフォーマンスに貢献する可能性が高いことがわかりました。
私たちはこの作品を、学術研究と一般大衆、特に若い読者や大学の学位を持たない読者との間のギャップを埋めるための一歩として構想しています。
要約(オリジナル)
A vast amount of scholarly work is published daily, yet much of it remains inaccessible to the general public due to dense jargon and complex language. To address this challenge in science communication, we introduce a reinforcement learning framework that fine-tunes a language model to rewrite scholarly abstracts into more comprehensible versions. Guided by a carefully balanced combination of word- and sentence-level accessibility rewards, our language model effectively substitutes technical terms with more accessible alternatives, a task which models supervised fine-tuned or guided by conventional readability measures struggle to accomplish. Our best model adjusts the readability level of scholarly abstracts by approximately six U.S. grade levels — in other words, from a postgraduate to a high school level. This translates to roughly a 90% relative boost over the supervised fine-tuning baseline, all while maintaining factual accuracy and high-quality language. An in-depth analysis of our approach shows that balanced rewards lead to systematic modifications in the base model, likely contributing to smoother optimization and superior performance. We envision this work as a step toward bridging the gap between scholarly research and the general public, particularly younger readers and those without a college degree.
arxiv情報
著者 | Haining Wang,Jason Clark,Hannah McKelvey,Leila Sterman,Zheng Gao,Zuoyu Tian,Sandra Kübler,Xiaozhong Liu |
発行日 | 2024-10-22 15:14:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google