Pre-trained Language Models in Biomedical Domain: A Systematic Survey

要約

事前トレーニング済み言語モデル (PLM) は、ほとんどの自然言語処理 (NLP) タスクの事実上のパラダイムです。
これは生物医学分野にも利益をもたらします。情報学、医学、コンピューター サイエンス (CS) コミュニティの研究者は、さまざまな生物医学的タスクのための生物医学テキスト、電子医療記録、タンパク質、DNA 配列などの生物医学データセットでトレーニングされたさまざまな PLM を提案しています。
しかし、生物医学 PLM は分野を超えた特性があるため、コミュニティ間での普及が妨げられています。
既存の作品の中には、包括的な比較や議論が行われておらず、互いに孤立しているものもあります。
この調査では、生物医学用 PLM とそのアプリケーションの最近の進歩を系統的にレビューするだけでなく、用語やベンチマークを標準化することも期待されています。
この論文では、生物医学領域における事前トレーニング済み言語モデルの最近の進歩と、生物医学の下流タスクにおけるそれらのアプリケーションについて要約します。
特に、動機について議論し、既存の生物医学 PLM の分類を提案します。
生物医学の下流タスクにおけるそれらの応用について徹底的に議論されています。
最後に、さまざまな制限と将来の傾向を示し、研究コミュニティの将来の研究にインスピレーションを与えることができることを願っています。

要約(オリジナル)

Pre-trained language models (PLMs) have been the de facto paradigm for most natural language processing (NLP) tasks. This also benefits biomedical domain: researchers from informatics, medicine, and computer science (CS) communities propose various PLMs trained on biomedical datasets, e.g., biomedical text, electronic health records, protein, and DNA sequences for various biomedical tasks. However, the cross-discipline characteristics of biomedical PLMs hinder their spreading among communities; some existing works are isolated from each other without comprehensive comparison and discussions. It expects a survey that not only systematically reviews recent advances of biomedical PLMs and their applications but also standardizes terminology and benchmarks. In this paper, we summarize the recent progress of pre-trained language models in the biomedical domain and their applications in biomedical downstream tasks. Particularly, we discuss the motivations and propose a taxonomy of existing biomedical PLMs. Their applications in biomedical downstream tasks are exhaustively discussed. At last, we illustrate various limitations and future trends, which we hope can provide inspiration for the future research of the research community.

arxiv情報

著者 Benyou Wang,Qianqian Xie,Jiahuan Pei,Zhihong Chen,Prayag Tiwari,Zhao Li,Jie fu
発行日 2023-07-17 03:58:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク