要約
大規模言語モデル (LLM) は、一般的なドメインのさまざまな自然言語処理 (NLP) タスクで目覚ましい成功を収めています。
ただし、LLM は、ドメイン知識が限られているために、医学的事実に関する幻覚を伴う応答を生成することがあります。
このような欠点は、医療現場での LLM の利用に潜在的なリスクをもたらします。
この課題に対処するために、LLM が構造化された医療知識ベースを活用して領域知識を効率的に把握し、信頼性の高い応答生成を促進する知識チューニングを提案します。
また、LLM の医学知識の習熟度を評価するために、医学知識ベースから構築された中国の医学知識の質問回答データセットである cMedKnowQA もリリースします。
実験結果は、cMedKnowQA で知識調整された LLM が、通常の命令調整と比較して応答生成において高いレベルの精度を示し、LLM のドメイン適応のための信頼できる新しい方法を提供できることを示しています。
要約(オリジナル)
Large Language Models (LLMs) have demonstrated remarkable success in diverse natural language processing (NLP) tasks in general domains. However, LLMs sometimes generate responses with the hallucination about medical facts due to limited domain knowledge. Such shortcomings pose potential risks in the utilization of LLMs within medical contexts. To address this challenge, we propose knowledge-tuning, which leverages structured medical knowledge bases for the LLMs to grasp domain knowledge efficiently and facilitate reliable response generation. We also release cMedKnowQA, a Chinese medical knowledge question-answering dataset constructed from medical knowledge bases to assess the medical knowledge proficiency of LLMs. Experimental results show that the LLMs which are knowledge-tuned with cMedKnowQA, can exhibit higher levels of accuracy in response generation compared with vanilla instruction-tuning and offer a new reliable way for the domain adaptation of LLMs.
arxiv情報
著者 | Haochun Wang,Sendong Zhao,Zewen Qiang,Zijian Li,Nuwa Xi,Yanrui Du,MuZhen Cai,Haoqiang Guo,Yuhan Chen,Haoming Xu,Bing Qin,Ting Liu |
発行日 | 2023-09-08 07:42:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google