要約
アカデミックワークフローにおける大規模な言語モデル(LLM)の採用の増加にもかかわらず、高品質の科学的執筆をサポートすることに関しては、その能力は限られたままです。
ほとんどの既存のシステムは、汎用の科学的テキスト生成のために設計されており、セクション全体で概念的な一貫性など、表面レベルの研磨を超えた研究コミュニケーションの洗練された要求を満たすことができません。
さらに、アカデミックライティングは本質的に反復的で修正駆動型であり、直接プロンプトベースのパラダイムによって十分にサポートされていないプロセスです。
これらのシナリオに対処するために、アカデミックペーパーリビジョンのための人間と協力の枠組みを提案します。
最初に、現実的でセクションレベルの科学的改訂を反映した140,000を超える指導反応ペアで注釈が付けられた、上位の会場から7,040の研究論文の包括的なデータセットを紹介します。
データセットに基づいて、1.5Bから14Bのパラメーターの範囲のコンテキスト対応の命令ガイド付きライティング支援を提供するように設計されたオープンソースLLMSの最初のスイートであるXtragptを開発します。
広範な実験では、Xtragptが同じスケールのベースラインを大幅に上回り、独自のシステムの品質に近づくことを検証します。
自動化された好みの評価と人間の評価の両方が、科学ドラフトの改善におけるモデルの有効性を確認します。
要約(オリジナル)
Despite the growing adoption of large language models (LLMs) in academic workflows, their capabilities remain limited when it comes to supporting high-quality scientific writing. Most existing systems are designed for general-purpose scientific text generation and fail to meet the sophisticated demands of research communication beyond surface-level polishing, such as conceptual coherence across sections. Furthermore, academic writing is inherently iterative and revision-driven, a process not well supported by direct prompting-based paradigms. To address these scenarios, we propose a human-AI collaboration framework for academic paper revision. We first introduce a comprehensive dataset of 7,040 research papers from top-tier venues annotated with over 140,000 instruction-response pairs that reflect realistic, section-level scientific revisions. Building on the dataset, we develop XtraGPT, the first suite of open-source LLMs, designed to provide context-aware, instruction-guided writing assistance, ranging from 1.5B to 14B parameters. Extensive experiments validate that XtraGPT significantly outperforms same-scale baselines and approaches the quality of proprietary systems. Both automated preference assessments and human evaluations confirm the effectiveness of our models in improving scientific drafts.
arxiv情報
著者 | Nuo Chen,Andre Lin HuiKai,Jiaying Wu,Junyi Hou,Zining Zhang,Qian Wang,Xidong Wang,Bingsheng He |
発行日 | 2025-05-16 15:02:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google