ChatDoctor: A Medical Chat Model Fine-tuned on LLaMA Model using Medical Domain Knowledge

要約

ChatGPT などの一般的なドメインでの最近の大規模言語モデル (LLM) は、指示に従い、人間のような応答を生成することに顕著な成功を収めています。
ただし、そのような言語モデルは医療分野に合わせて調整されていないため、回答の精度が低く、医学的診断や投薬などについて妥当な推奨を行うことができません。この問題に対処するために、必要な 700 を超える疾患とそれに対応する症状を収集しました。
医療検査と推奨される薬から、5,000 件の医師と患者の会話が生成されました。
これらの調整された医師と患者の会話を使用して LLM を微調整することにより、結果として得られるモデルは、患者のニーズを理解し、情報に基づいたアドバイスを提供し、さまざまな医療関連分野で貴重な支援を提供する大きな可能性を秘めています。
これらの高度な言語モデルをヘルスケアに統合することで、ヘルスケアの専門家と患者のコミュニケーション方法に革命をもたらし、最終的には患者ケアと結果の全体的な効率と質を向上させることができます。
さらに、医療分野での対話モデルのさらなる開発を促進するために、すべてのソース コード、データセット、およびモデルの重みを公開しました。
このプロジェクトのトレーニング データ、コード、重みは、https://github.com/Kent0n-Li/ChatDoctor で入手できます。

要約(オリジナル)

Recent large language models (LLMs) in the general domain, such as ChatGPT, have shown remarkable success in following instructions and producing human-like responses. However, such language models have not been tailored to the medical domain, resulting in poor answer accuracy and inability to give plausible recommendations for medical diagnosis, medications, etc. To address this issue, we collected more than 700 diseases and their corresponding symptoms, required medical tests, and recommended medications, from which we generated 5K doctor-patient conversations. By fine-tuning LLMs using these tailored doctor-patient conversations, the resulting models emerge with great potential to understand patients’ needs, provide informed advice, and offer valuable assistance in a variety of medical-related fields. The integration of these advanced language models into healthcare can revolutionize the way healthcare professionals and patients communicate, ultimately improving the overall efficiency and quality of patient care and outcomes. In addition, we made public all the source codes, datasets, and model weights to facilitate the further development of dialogue models in the medical field. The training data, codes, and weights of this project are available at: https://github.com/Kent0n-Li/ChatDoctor.

arxiv情報

著者 Li Yunxiang,Li Zihan,Zhang Kai,Dan Ruilong,Zhang You
発行日 2023-03-27 20:41:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク