Zero-shot and Few-shot Generation Strategies for Artificial Clinical Records

要約

プライバシー規制を遵守しながら、臨床研究のために過去の患者データにアクセスするという課題は、医学において大きな障害となっています。
この問題を回避する革新的なアプローチには、個人のプライバシーを損なうことなく、実際の患者データを反映する合成医療記録を利用することが含まれます。
特に大規模言語モデル (LLM) のトレーニングに実際の患者データを使用せずにこれらの合成データセットを作成することは、モデルをトレーニングするために機密の患者情報にアクセスすることも課題であるため、新しいソリューションを提供します。
この研究では、トレーニング中に機密の患者データを必要とする微調整された方法論と比較するために、ゼロショットおよび少数ショットのプロンプト戦略を採用し、実際の患者情報を正確に反映する合成医療記録を作成する Llama 2 LLM の機能を評価します。
私たちは、比較のために MIMIC-IV データセットのデータを利用して、「現在の病気の歴史」セクションの合成ナラティブを生成することに重点を置いています。
この研究では、思考連鎖アプローチを活用した新しいプロンプト手法を導入し、事前の微調整なしでより正確で文脈に関連した医療ナラティブを生成するモデルの能力を強化します。
私たちの調査結果は、この思考連鎖を促すアプローチにより、ゼロショット モデルがルージュ メトリック評価に基づいて微調整されたモデルと同等の結果を達成できることを示唆しています。

要約(オリジナル)

The challenge of accessing historical patient data for clinical research, while adhering to privacy regulations, is a significant obstacle in medical science. An innovative approach to circumvent this issue involves utilising synthetic medical records that mirror real patient data without compromising individual privacy. The creation of these synthetic datasets, particularly without using actual patient data to train Large Language Models (LLMs), presents a novel solution as gaining access to sensitive patient information to train models is also a challenge. This study assesses the capability of the Llama 2 LLM to create synthetic medical records that accurately reflect real patient information, employing zero-shot and few-shot prompting strategies for comparison against fine-tuned methodologies that do require sensitive patient data during training. We focus on generating synthetic narratives for the History of Present Illness section, utilising data from the MIMIC-IV dataset for comparison. In this work introduce a novel prompting technique that leverages a chain-of-thought approach, enhancing the model’s ability to generate more accurate and contextually relevant medical narratives without prior fine-tuning. Our findings suggest that this chain-of-thought prompted approach allows the zero-shot model to achieve results on par with those of fine-tuned models, based on Rouge metrics evaluation.

arxiv情報

著者 Erlend Frayling,Jake Lever,Graham McDonald
発行日 2024-03-14 15:57:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク