BianQue: Balancing the Questioning and Suggestion Ability of Health LLMs with Multi-turn Health Conversations Polished by ChatGPT

要約

大規模言語モデル (LLM) は、ChatGPT、ChatGLM、ChatDoctor、DoctorGLM などのシステムに代表される、シングル ターンの会話で一般的かつ広範な健康に関する提案を提供することに優れています。ただし、シングル ターンでユーザーが提供する情報は限られているため、結果は限られています。
生成された提案のパーソナライズとターゲティングが不十分であり、ユーザーが有用な部分を独自に選択する必要があります。
これは主に、複数回にわたる尋問を行う能力が欠如していることが原因です。
実際の医療相談では、医師は通常、患者の状態を徹底的に理解するために一連の反復的な質問を行い、その後効果的で個別化された提案を提供できるようにします。これは、LLM の一連の質問 (CoQ) として定義できます。
LLM の CoQ を改善するために、ChatGPT によって洗練された複数ターンの質問と健康に関する提案で構成される、自己構築された健康会話データセット BianQueCorpus で微調整された ChatGLM ベースの LLM である BianQue を提案します。
実験結果は、提案された BianQue が質問と健康に関する提案の両方の機能のバランスを同時に取れることを示しており、これはプロアクティブな健康の分野における LLM の研究と応用を促進するのに役立ちます。

要約(オリジナル)

Large language models (LLMs) have performed well in providing general and extensive health suggestions in single-turn conversations, exemplified by systems such as ChatGPT, ChatGLM, ChatDoctor, DoctorGLM, and etc. However, the limited information provided by users during single turn results in inadequate personalization and targeting of the generated suggestions, which requires users to independently select the useful part. It is mainly caused by the missing ability to engage in multi-turn questioning. In real-world medical consultations, doctors usually employ a series of iterative inquiries to comprehend the patient’s condition thoroughly, enabling them to provide effective and personalized suggestions subsequently, which can be defined as chain of questioning (CoQ) for LLMs. To improve the CoQ of LLMs, we propose BianQue, a ChatGLM-based LLM finetuned with the self-constructed health conversation dataset BianQueCorpus that is consist of multiple turns of questioning and health suggestions polished by ChatGPT. Experimental results demonstrate that the proposed BianQue can simultaneously balance the capabilities of both questioning and health suggestions, which will help promote the research and application of LLMs in the field of proactive health.

arxiv情報

著者 Yirong Chen,Zhenyu Wang,Xiaofen Xing,huimin zheng,Zhipei Xu,Kai Fang,Junhong Wang,Sihang Li,Jieling Wu,Qi Liu,Xiangmin Xu
発行日 2023-10-24 14:57:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.HC パーマリンク