BianQue: Balancing the Questioning and Suggestion Ability of Health LLMs with Multi-turn Health Conversations Polished by ChatGPT

要約

大規模言語モデル(LLM)は、ChatGPT、ChatGLM、ChatDoctor、DoctorGLMなどのシステムに代表されるように、シングルターンの会話で一般的で広範な健康提案を提供するのに優れた性能を発揮してきました。しかし、シングルターン中にユーザーから提供される情報が限られているため、生成される提案のパーソナライズやターゲティングが不十分であり、ユーザーが独自に有用な部分を選択する必要があります。その主な原因は、複数ターンの質問に関与する能力が欠けていることである。実世界の医療診察では、医師は通常、患者の状態を徹底的に理解するために一連の質問を繰り返し、その後に効果的でパーソナライズされた提案を提供できるようにします。LLMのCoQを改善するために、我々は、ChatGPTによって磨かれた複数の質問と健康提案からなる自己構築された健康会話データセットBianQueCorpusを用いて微調整されたChatGLMベースのLLMであるBianQueを提案する。実験の結果、提案したBianQueは、質問と健康提案の両方の機能を同時にバランスさせることができ、プロアクティブヘルス分野におけるLLMの研究と応用の促進に役立つことが実証された。

要約(オリジナル)

Large language models (LLMs) have performed well in providing general and extensive health suggestions in single-turn conversations, exemplified by systems such as ChatGPT, ChatGLM, ChatDoctor, DoctorGLM, and etc. However, the limited information provided by users during single turn results in inadequate personalization and targeting of the generated suggestions, which requires users to independently select the useful part. It is mainly caused by the missing ability to engage in multi-turn questioning. In real-world medical consultations, doctors usually employ a series of iterative inquiries to comprehend the patient’s condition thoroughly, enabling them to provide effective and personalized suggestions subsequently, which can be defined as chain of questioning (CoQ) for LLMs. To improve the CoQ of LLMs, we propose BianQue, a ChatGLM-based LLM finetuned with the self-constructed health conversation dataset BianQueCorpus that is consist of multiple turns of questioning and health suggestions polished by ChatGPT. Experimental results demonstrate that the proposed BianQue can simultaneously balance the capabilities of both questioning and health suggestions, which will help promote the research and application of LLMs in the field of proactive health.

arxiv情報

著者 Yirong Chen,Zhenyu Wang,Xiaofen Xing,huimin zheng,Zhipei Xu,Kai Fang,Junhong Wang,Sihang Li,Jieling Wu,Qi Liu,Xiangmin Xu
発行日 2023-12-04 09:26:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.HC パーマリンク