要約
タイトル:大規模言語モデルは、医療会話 QA において包括的な思考が必要
要約:
– 医療会話 QA システムは、医療の効率を高めるために、一連の専門的な医療サービスを提供することを目的としています。
– 大規模言語モデル(LLM)は、数学、論理、常識的なQAなど、様々な分野で複雑な推論タスクでの成功にもかかわらず、医療領域の複雑さや専門性の増加に伴い改善する必要があります。
– 医療会話 QA タスクは、強力な医療推論だけでなく、広く深く考える能力も必要であるため、医療 CQA タスクにおけるこれらの課題を考慮して理解する必要があります。
– この論文では、多面的に考慮すべき医療 CQA タスクに対処するために、LLMをdiffused and focused thinkingを実行するように導くために設計されたHolistically Thought (HoT)法を提案しています。
– 提案されたHoT法は、英語と中国語を含む3つの異なる医療CQAデータセットにおいて、自動評価および手動評価によって評価されました。
– 広範な実験結果は、提案手法がいくつかの状態-オブ-ジアート(SOTA)手法よりも正しさ、専門的性質、思いやりのある回答を生成できることを示し、その効果を表しています。
– コードは https://github.com/WENGSYX/HoT にあります。
要約(オリジナル)
The medical conversational question answering (CQA) system aims at providing a series of professional medical services to improve the efficiency of medical care. Despite the success of large language models (LLMs) in complex reasoning tasks in various fields, such as mathematics, logic, and commonsense QA, they still need to improve with the increased complexity and specialization of the medical field. This is because medical CQA tasks require not only strong medical reasoning, but also the ability to think broadly and deeply. In this paper, to address these challenges in medical CQA tasks that need to be considered and understood in many aspects, we propose the Holistically Thought (HoT) method, which is designed to guide the LLMs to perform the diffused and focused thinking for generating high-quality medical responses. The proposed HoT method has been evaluated through automated and manual assessments in three different medical CQA datasets containing the English and Chinese languages. The extensive experimental results show that our method can produce more correctness, professional, and considerate answers than several state-of-the-art (SOTA) methods, manifesting its effectiveness. Our code in https://github.com/WENGSYX/HoT.
arxiv情報
著者 | Yixuan Weng,Bin Li,Fei Xia,Minjun Zhu,Bin Sun,Shizhu He,Kang Liu,Jun Zhao |
発行日 | 2023-05-10 13:40:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI