ChatDoctor: A Medical Chat Model Fine-tuned on LLaMA Model using Medical Domain Knowledge

要約

ChatGPT などの一般的なドメインでの最近の大規模言語モデル (LLM) は、指示に従い、人間のような応答を生成することに顕著な成功を収めています。
しかし、このような言語モデルは、医療分野では個別かつ慎重に学習されていないため、診断精度が低く、医療診断や投薬などの正しい推奨を行うことができません。この問題に対処するために、700 を超える疾患とそれに対応する疾患を収集しました。
症状、推奨される治療法、必要な医療検査、そして 5,000 件の医師と患者の会話を生成しました。
医師と患者の会話のモデルを微調整することにより、これらのモデルは、患者のニーズを理解し、情報に基づいたアドバイスを提供し、さまざまな医療関連分野で貴重な支援を提供する大きな可能性を秘めています。
これらの高度な言語モデルをヘルスケアに統合することで、ヘルスケアの専門家と患者のコミュニケーション方法に革命をもたらし、最終的にはケアの全体的な質と患者の転帰を改善できます。
さらに、医療分野での対話モデルのさらなる開発を進めるために、すべてのソース コード、データセット、およびモデルの重みを公開します。
さらに、このプロジェクトのトレーニング データ、コード、重みは、https://github.com/Kent0n-Li/ChatDoctor で入手できます。

要約(オリジナル)

Recent large language models (LLMs) in the general domain, such as ChatGPT, have shown remarkable success in following instructions and producing human-like responses. However, such language models have not been learned individually and carefully for the medical domain, resulting in poor diagnostic accuracy and inability to give correct recommendations for medical diagnosis, medications, etc. To address this issue, we collected more than 700 diseases and their corresponding symptoms, recommended medications, and required medical tests, and then generated 5K doctor-patient conversations. By fine-tuning models of doctor-patient conversations, these models emerge with great potential to understand patients’ needs, provide informed advice, and offer valuable assistance in a variety of medical-related fields. The integration of these advanced language models into healthcare can revolutionize the way healthcare professionals and patients communicate, ultimately improving the overall quality of care and patient outcomes. In addition, we will open all source code, datasets and model weights to advance the further development of dialogue models in the medical field. In addition, the training data, code, and weights of this project are available at: https://github.com/Kent0n-Li/ChatDoctor.

arxiv情報

著者 Li Yunxiang,Li Zihan,Zhang Kai,Dan Ruilong,Zhang You
発行日 2023-03-24 15:29:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク