HuaTuo: Tuning LLaMA Model with Chinese Medical Knowledge

要約

タイトル: 中国医学知識を用いたLLaMAモデルのチューニング「HuaTuo」

要約:
– 大規模言語モデル(LLMs)は、LLaMAモデルのようなものがあり、一般的な自然言語処理(NLP)タスクにおいて有効性を示している。
– ただし、医療分野のタスクでは、返答に医学的な専門知識が必要なため、LLMsはまだ最適な性能を発揮できていない。
– この課題に対応するため、HuaTuoというLLaMAベースのモデルを提案する。
– HuaTuoは、生成されたQA(質問-回答)インスタンスで監視され、チューニングされたものである。
– 実験結果は、HuaTuoがより信頼性の高い医学知識を持つ応答を生成することを示している。
– 提案されたHuaTuoモデルは、https://github.com/SCIR-HI/Huatuo-Llama-Med-Chineseでアクセス可能である。

要約(オリジナル)

Large Language Models (LLMs), such as the LLaMA model, have demonstrated their effectiveness in various general-domain natural language processing (NLP) tasks. Nevertheless, LLMs have not yet performed optimally in biomedical domain tasks due to the need for medical expertise in the responses. In response to this challenge, we propose HuaTuo, a LLaMA-based model that has been supervised-fine-tuned with generated QA (Question-Answer) instances. The experimental results demonstrate that HuaTuo generates responses that possess more reliable medical knowledge. Our proposed HuaTuo model is accessible at https://github.com/SCIR-HI/Huatuo-Llama-Med-Chinese.

arxiv情報

著者 Haochun Wang,Chi Liu,Nuwa Xi,Zewen Qiang,Sendong Zhao,Bing Qin,Ting Liu
発行日 2023-04-14 07:54:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL パーマリンク