要約
タイトル: ChatDoctor:医療ドメインの知識を用いたLLaMAモデルで微調整された医療チャットモデル
要約:
– 最近の大規模言語モデル(LLM)は、ChatGPTなどの一般的なドメインで従来の成功を収めていますが、医療ドメインに特化されておらず、回答精度が低く、医療診断、薬剤などに対する正当な推奨を行うことができません。
– 700以上の病気とその対応する症状、必要な医学的検査、推奨される薬剤を収集し、5Kの医師-患者会話を生成しました。
– さらに、オンラインQ&A医療相談サイトから20万件以上の実際の患者-医師の会話を取得しました。
– これらの20.5万件の医師-患者会話を使用してLLMを微調整することで、結果として得られるモデルは、患者のニーズを理解し、的確なアドバイスを提供し、医療関連分野で有益な援助を提供する可能性が大きくなります。
– これらの高度な言語モデルの統合は、医療従事者と患者がコミュニケーションを取る方法を革新し、最終的には患者ケアとアウトカムの総合的な効率と品質を改善することができます。
– また、このプロジェクトのトレーニングデータ、コード、重みは、https://github.com/Kent0n-Li/ChatDoctor で利用可能です。
要約(オリジナル)
Recent large language models (LLMs) in the general domain, such as ChatGPT, have shown remarkable success in following instructions and producing human-like responses. However, such language models have not been tailored to the medical domain, resulting in poor answer accuracy and inability to give plausible recommendations for medical diagnosis, medications, etc. To address this issue, we collected more than 700 diseases and their corresponding symptoms, required medical tests, and recommended medications, from which we generated 5K doctor-patient conversations. In addition, we obtained 200K real patient-doctor conversations from online Q\&A medical consultation sites. By fine-tuning LLMs using these 205k doctor-patient conversations, the resulting models emerge with great potential to understand patients’ needs, provide informed advice, and offer valuable assistance in a variety of medical-related fields. The integration of these advanced language models into healthcare can revolutionize the way healthcare professionals and patients communicate, ultimately improving the overall efficiency and quality of patient care and outcomes. In addition, we made public all the source codes, datasets, and model weights to facilitate the further development of dialogue models in the medical field. The training data, codes, and weights of this project are available at: The training data, codes, and weights of this project are available at: https://github.com/Kent0n-Li/ChatDoctor.
arxiv情報
| 著者 | Yunxiang Li,Zihan Li,Kai Zhang,Ruilong Dan,You Zhang |
| 発行日 | 2023-04-01 18:00:33+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI