Direct Preference Optimization for Suppressing Hallucinated Prior Exams in Radiology Report Generation

要約

生成視覚言語モデル (VLM) の最近の進歩は、放射線医学における AI に刺激的な潜在的影響をもたらしていますが、VLM は幻覚、意味不明なテキスト、その他の望ましくない動作を生成し、臨床医の時間を無駄にし、患者に損害を与える可能性があることも知られています。
直接優先最適化 (DPO) に関する最近の研究に基づいて、望ましくないタイプの生成を抑制することによって、放射線医学レポートの生成を実行する事前トレーニング済み VLM の動作を変更するための簡単な方法を提案します。
私たちは、胸部 X 線レポートの生成を実行するモデルで長年確立されてきた問題行動に対処し、以前の検査の幻覚の防止にこの方法を適用しました。
私たちの実験全体を通じて、DPO の微調整により、臨床精度メトリクスに関するモデルのパフォーマンスを維持しながら、以前の検査で幻覚を示す行が 3.2 ~ 4.8 倍削減されることがわかりました。
私たちの研究は、私たちの知る限り、医療用 VLM に DPO を適用した最初の研究であり、全体的な臨床精度を維持しながら問題行動を抑制するためのデータと計算効率の高い方法を提供します。

要約(オリジナル)

Recent advances in generative vision-language models (VLMs) have exciting potential implications for AI in radiology, yet VLMs are also known to produce hallucinations, nonsensical text, and other unwanted behaviors that can waste clinicians’ time and cause patient harm. Drawing on recent work on direct preference optimization (DPO), we propose a simple method for modifying the behavior of pretrained VLMs performing radiology report generation by suppressing unwanted types of generations. We apply our method to the prevention of hallucinations of prior exams, addressing a long-established problem behavior in models performing chest X-ray report generation. Across our experiments, we find that DPO fine-tuning achieves a 3.2-4.8x reduction in lines hallucinating prior exams while maintaining model performance on clinical accuracy metrics. Our work is, to the best of our knowledge, the first work to apply DPO to medical VLMs, providing a data- and compute- efficient way to suppress problem behaviors while maintaining overall clinical accuracy.

arxiv情報

著者 Oishi Banerjee,Hong-Yu Zhou,Subathra Adithan,Stephen Kwak,Kay Wu,Pranav Rajpurkar
発行日 2024-06-10 17:31:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CV, cs.LG パーマリンク