Instruction-tuned Large Language Models for Machine Translation in the Medical Domain

要約

大規模言語モデル (LLM) は、高リソース言語ペアおよびドメインの機械翻訳において有望な結果を示しています。
ただし、特殊な領域 (医療など) では、LLM は標準のニューラル機械翻訳モデルと比較してパフォーマンスが低いことが示されています。
専門分野のユーザー、研究者、翻訳者にとって、用語の機械翻訳の一貫性は非常に重要です。
この研究では、医療領域におけるベースライン LLM と命令調整 LLM のパフォーマンスを比較します。
さらに、LLM を微調整するために、専門の医学辞書の用語を命令形式のデータセットに導入します。
命令調整された LLM は、自動メトリクスを備えたベースライン モデルよりも大幅に優れたパフォーマンスを発揮します。

要約(オリジナル)

Large Language Models (LLMs) have shown promising results on machine translation for high resource language pairs and domains. However, in specialised domains (e.g. medical) LLMs have shown lower performance compared to standard neural machine translation models. The consistency in the machine translation of terminology is crucial for users, researchers, and translators in specialised domains. In this study, we compare the performance between baseline LLMs and instruction-tuned LLMs in the medical domain. In addition, we introduce terminology from specialised medical dictionaries into the instruction formatted datasets for fine-tuning LLMs. The instruction-tuned LLMs significantly outperform the baseline models with automatic metrics.

arxiv情報

著者 Miguel Rios
発行日 2024-08-29 11:05:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク