要約
大規模な言語モデル(LLMS)の最近の進捗状況により、タスク固有のデータセットに関する監視されたトレーニングがなくても、長いドキュメントの自動処理が可能になりました。
しかし、簡単な情報抽出タスクとは対照的に、複雑なタスクでのゼロショットパフォーマンスは次のままです。
長く複雑な入力を備えたタスクの1つの実行可能なアプローチは、最初にドキュメントを要約し、次に概要に監視された微調整を適用することです。
ただし、要約プロセスは必然的に情報の損失をもたらします。
この研究では、元のドキュメントのさまざまな重要な側面をキャプチャすることを目的とした長いドキュメントの要約を処理する方法を提示します。
異なるアスペクト指向のプロンプトで生成されたLLM要約には、異なる\ textit {情報信号}が含まれていると仮定し、これらの違いを測定する方法を提案します。
トランスモデルの監視されたトレーニングのために、これらの異なる要約からシグナルを効果的に統合するアプローチを紹介します。
4つの病院からの実際のデータを使用して、精神医学的退院からの30日間の再入院予測 – インパクトの高いタスクに関する仮説を検証し、提案された方法が患者の転帰を予測する複雑なタスクの予測パフォーマンスを高めることを示します
。
要約(オリジナル)
Recent progress in large language models (LLMs) has enabled the automated processing of lengthy documents even without supervised training on a task-specific dataset. Yet, their zero-shot performance in complex tasks as opposed to straightforward information extraction tasks remains suboptimal. One feasible approach for tasks with lengthy, complex input is to first summarize the document and then apply supervised fine-tuning to the summary. However, the summarization process inevitably results in some loss of information. In this study we present a method for processing the summaries of long documents aimed to capture different important aspects of the original document. We hypothesize that LLM summaries generated with different aspect-oriented prompts contain different \textit{information signals}, and we propose methods to measure these differences. We introduce approaches to effectively integrate signals from these different summaries for supervised training of transformer models. We validate our hypotheses on a high-impact task — 30-day readmission prediction from a psychiatric discharge — using real-world data from four hospitals, and show that our proposed method increases the prediction performance for the complex task of predicting patient outcome.
arxiv情報
著者 | WonJin Yoon,Boyu Ren,Spencer Thomas,Chanwhi Kim,Guergana Savova,Mei-Hua Hall,Timothy Miller |
発行日 | 2025-02-14 18:59:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google