要約
ChatGPT などの一般的な大規模言語モデル (LLM) は目覚ましい成功を収めています。
ただし、このような LLM は、精度が低く、医学的アドバイスを提供できないため、医療目的には広く採用されていません。
私たちは、高品質の医療質問応答 (QA) インスタンスとヒューマン フィードバックからの強化学習 (RLHF) を使用してトレーニングおよび微調整された LLaMA に基づく LLM である IvyGPT を提案します。
監視された微調整の後、IvyGPT は優れたマルチターン会話機能を備えていますが、総合的な診断などの他の側面では医師のように機能することはできません。
RLHF を通じて、IvyGPT はより人間に近い、より豊富な診断と治療の回答を出力できます。
トレーニングでは、QLoRA を使用して、少数の NVIDIA A100 (80GB) GPU で 330 億のパラメーターをトレーニングしました。
実験結果は、IvyGPT が他の医療 GPT モデルよりも優れたパフォーマンスを示していることを示しています。
要約(オリジナル)
General large language models (LLMs) such as ChatGPT have shown remarkable success. However, such LLMs have not been widely adopted for medical purposes, due to poor accuracy and inability to provide medical advice. We propose IvyGPT, an LLM based on LLaMA that is trained and fine-tuned with high-quality medical question-answer (QA) instances and Reinforcement Learning from Human Feedback (RLHF). After supervised fine-tuning, IvyGPT has good multi-turn conversation capabilities, but it cannot perform like a doctor in other aspects, such as comprehensive diagnosis. Through RLHF, IvyGPT can output richer diagnosis and treatment answers that are closer to human. In the training, we used QLoRA to train 33 billion parameters on a small number of NVIDIA A100 (80GB) GPUs. Experimental results show that IvyGPT has outperformed other medical GPT models.
arxiv情報
著者 | Rongsheng Wang,Yaofei Duan,ChanTong Lam,Jiexi Chen,Jiangsheng Xu,Haoming Chen,Xiaohong Liu,Patrick Cheong-Iao Pang,Tao Tan |
発行日 | 2023-07-20 01:11:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google