From General to Specific: Tailoring Large Language Models for Personalized Healthcare

要約

大規模言語モデル (LLM) の急速な発展により、医療を含む多くの業界が変革されました。
しかし、これまでの医療 LLM は、一般的な医学知識を活用して対応を提供することに主に焦点を当てており、患者のばらつきを考慮せず、個人レベルでの真の個別化が欠けていました。
これに対処するために、私たちは、個人化された医療言語モデル (PMLM) と呼ばれる新しい方法を提案します。これは、推奨システムと強化学習 (RL) を通じて個人化された LLM を探索および最適化します。
具体的には、PMLM は、自己情報およびピア情報によるパーソナライゼーションを利用することで、行動や好みの変化を捕捉し、個人のニーズに合わせた最初のパーソナライズされたプロンプトを設計します。
これらの最初のパーソナライズされたプロンプトを RL を通じてさらに改良し、最終的に LLM ガイダンスの精度を高めます。
特に、パーソナライズされたプロンプトはハード プロンプトであるため、PMLM に高い適応性と再利用性が与えられ、高品質の独自の LLM を直接活用できるようになります。
私たちは実際の産婦人科データを使用して PMLM を評価し、その実験結果は、PMLM が個別化された対応を実現し、より洗練された個別化されたサービスを提供することを実証し、個別化された医療 LLM の可能性を提供します。

要約(オリジナル)

The rapid development of large language models (LLMs) has transformed many industries, including healthcare. However, previous medical LLMs have largely focused on leveraging general medical knowledge to provide responses, without accounting for patient variability and lacking true personalization at the individual level. To address this, we propose a novel method called personalized medical language model (PMLM), which explores and optimizes personalized LLMs through recommendation systems and reinforcement learning (RL). Specifically, by utilizing self-informed and peer-informed personalization, PMLM captures changes in behaviors and preferences to design initial personalized prompts tailored to individual needs. We further refine these initial personalized prompts through RL, ultimately enhancing the precision of LLM guidance. Notably, the personalized prompt are hard prompt, which grants PMLM high adaptability and reusability, allowing it to directly leverage high-quality proprietary LLMs. We evaluate PMLM using real-world obstetrics and gynecology data, and the experimental results demonstrate that PMLM achieves personalized responses, and it provides more refined and individualized services, offering a potential way for personalized medical LLMs.

arxiv情報

著者 Ruize Shi,Hong Huang,Wei Zhou,Kehan Yin,Kai Zhao,Yun Zhao
発行日 2024-12-20 14:51:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR パーマリンク