RetSTA: An LLM-Based Approach for Standardizing Clinical Fundus Image Reports

要約

臨床報告の標準化は、ヘルスケアの品質を改善し、データ統合を促進するために重要です。
フォーマット、用語、スタイルなどの統一された基準の欠如は、臨床眼底診断レポートの大きな課題であり、データを理解するための大規模な言語モデル(LLM)の難易度を高めます。
これに対処するために、Fundus臨床用語と臨床診断で一般的に使用される説明を含むバイリンガル標準用語を構築します。
次に、RetSTA-7B-ZeroとRetsta-7Bの2つのモデルを確立します。
臨床シナリオをシミュレートする拡張データセットで微調整されたRetSTA-7B-Zeroは、強力な標準化行動を実証します。
ただし、より幅広い病気をカバーするための制限の課題に遭遇します。
標準化パフォーマンスをさらに強化するために、RetSTA-7Bを構築します。これにより、RetSTA-7B-ゼロと対応する英語データによって生成されるかなりの量の標準化されたデータが統合され、多様な複雑な臨床シナリオをカバーし、初めてレポートレベルの標準化を達成します。
実験結果は、RetSTA-7Bがバイリンガル標準化タスクで他の比較LLMを上回ることを示しています。これにより、その優れたパフォーマンスと一般化可能性が検証されます。
チェックポイントは、https://github.com/ab-story/retsta-7bで入手できます。

要約(オリジナル)

Standardization of clinical reports is crucial for improving the quality of healthcare and facilitating data integration. The lack of unified standards, including format, terminology, and style, is a great challenge in clinical fundus diagnostic reports, which increases the difficulty for large language models (LLMs) to understand the data. To address this, we construct a bilingual standard terminology, containing fundus clinical terms and commonly used descriptions in clinical diagnosis. Then, we establish two models, RetSTA-7B-Zero and RetSTA-7B. RetSTA-7B-Zero, fine-tuned on an augmented dataset simulating clinical scenarios, demonstrates powerful standardization behaviors. However, it encounters a challenge of limitation to cover a wider range of diseases. To further enhance standardization performance, we build RetSTA-7B, which integrates a substantial amount of standardized data generated by RetSTA-7B-Zero along with corresponding English data, covering diverse complex clinical scenarios and achieving report-level standardization for the first time. Experimental results demonstrate that RetSTA-7B outperforms other compared LLMs in bilingual standardization task, which validates its superior performance and generalizability. The checkpoints are available at https://github.com/AB-Story/RetSTA-7B.

arxiv情報

著者 Jiushen Cai,Weihang Zhang,Hanruo Liu,Ningli Wang,Huiqi Li
発行日 2025-03-12 13:00:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク