要約
自然言語処理 (NLP) の最近の進歩は、BERT や RoBERTa などの事前トレーニング済み言語モデルの出現によるところが大きいと考えられます。
これらのモデルは一般的なデータセットでは優れたパフォーマンスを示しますが、医学などの特殊な領域では、独自の領域固有の用語、領域固有の略語、さまざまな文書構造が一般的であるため、苦戦する可能性があります。
このペーパーでは、主にドメイン固有のデータに対する継続的な事前トレーニングを通じて、これらのモデルをドメイン固有の要件に適応させるための戦略を検討します。
私たちは、翻訳された公開英語医療データから派生した 24 億トークンとドイツの臨床データの 30 億トークンに基づいて、いくつかのドイツ語医療言語モデルを事前トレーニングしました。
結果として得られたモデルは、固有表現認識 (NER)、マルチラベル分類、抽出的質問応答など、ドイツのさまざまな下流タスクで評価されました。
私たちの結果は、臨床および翻訳ベースの事前トレーニングによって強化されたモデルが、通常、医療の文脈において一般的なドメイン モデルよりも優れたパフォーマンスを発揮することを示唆しています。
私たちは、継続的な事前トレーニングにより、ゼロからトレーニングされた臨床モデルのパフォーマンスに匹敵する、またはそれを超える能力が実証されたと結論付けています。
さらに、臨床データに関する事前トレーニングや翻訳されたテキストの活用は、医療 NLP タスクにおけるドメイン適応の信頼できる方法であることが証明されています。
要約(オリジナル)
Recent advances in natural language processing (NLP) can be largely attributed to the advent of pre-trained language models such as BERT and RoBERTa. While these models demonstrate remarkable performance on general datasets, they can struggle in specialized domains such as medicine, where unique domain-specific terminologies, domain-specific abbreviations, and varying document structures are common. This paper explores strategies for adapting these models to domain-specific requirements, primarily through continuous pre-training on domain-specific data. We pre-trained several German medical language models on 2.4B tokens derived from translated public English medical data and 3B tokens of German clinical data. The resulting models were evaluated on various German downstream tasks, including named entity recognition (NER), multi-label classification, and extractive question answering. Our results suggest that models augmented by clinical and translation-based pre-training typically outperform general domain models in medical contexts. We conclude that continuous pre-training has demonstrated the ability to match or even exceed the performance of clinical models trained from scratch. Furthermore, pre-training on clinical data or leveraging translated texts have proven to be reliable methods for domain adaptation in medical NLP tasks.
arxiv情報
著者 | Ahmad Idrissi-Yaghir,Amin Dada,Henning Schäfer,Kamyar Arzideh,Giulia Baldini,Jan Trienes,Max Hasin,Jeanette Bewersdorff,Cynthia S. Schmidt,Marie Bauer,Kaleb E. Smith,Jiang Bian,Yonghui Wu,Jörg Schlötterer,Torsten Zesch,Peter A. Horn,Christin Seifert,Felix Nensa,Jens Kleesiek,Christoph M. Friedrich |
発行日 | 2024-05-08 08:53:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google