LLM-based Medical Assistant Personalization with Short- and Long-Term Memory Coordination

要約

GPT3.5のような大規模言語モデル(LLM)は、自然言語を理解し、生成することに顕著な熟練度を示している。一方、医療アシスタントは個人に大きな利益をもたらす可能性を秘めている。しかし、LLMに基づくパーソナライズされた医療アシスタントの研究は比較的少ない。一般的に、患者はその背景や好みに基づいて異なる会話をするため、ユーザー指向の医療アシスタントを強化する必要がある。この目的のためにLLMを完全に訓練することは可能であるが、リソースの消費は手の届かないものである。先行研究では、対話セッション中の新しいクエリに対して、過去の間違いを認識しながら応答を強化するメモリベースの方法が研究されている。我々は、単なるメモリモジュールでは不十分であり、LLMを完全に訓練することは過度にコストがかかると主張する。本研究では、医療アシスタントをパーソナライズするために、パラメータ効率的微調整(PEFT)スキーマを備えた、新しい計算バイオニック記憶機構を提案する。

要約(オリジナル)

Large Language Models (LLMs), such as GPT3.5, have exhibited remarkable proficiency in comprehending and generating natural language. On the other hand, medical assistants hold the potential to offer substantial benefits for individuals. However, the exploration of LLM-based personalized medical assistant remains relatively scarce. Typically, patients converse differently based on their background and preferences which necessitates the task of enhancing user-oriented medical assistant. While one can fully train an LLM for this objective, the resource consumption is unaffordable. Prior research has explored memory-based methods to enhance the response with aware of previous mistakes for new queries during a dialogue session. We contend that a mere memory module is inadequate and fully training an LLM can be excessively costly. In this study, we propose a novel computational bionic memory mechanism, equipped with a parameter-efficient fine-tuning (PEFT) schema, to personalize medical assistants.

arxiv情報

著者 Kai Zhang,Yangyang Kang,Fubang Zhao,Xiaozhong Liu
発行日 2024-04-04 16:23:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク