Chapter 7 Review of Data-Driven Generative AI Models for Knowledge Extraction from Scientific Literature in Healthcare

要約

このレビューでは、抽象的な NLP ベースのテキスト要約アプローチの開発を検証し、それらを抽出要約のための既存の手法と比較します。
1950 年代から、Bidirectional Encoder Representations from Transformer (BERT) や Generative Pre-training Transformers (GPT) などの事前トレーニング済み言語モデルの導入までのテキスト要約の歴史を簡単に説明します。
合計 60 件の研究が PubMed と Web of Science で特定され、そのうち 29 件が除外され、24 件が読み取られて適格性が評価され、結果として 7 件の研究がさらなる分析に使用されました。
この章には、科学文書の要約における GPT-3 ソリューションと最先端の GPT-4 ソリューションの比較例を含む例が記載されたセクションも含まれています。
自然言語処理は、短いテキスト要約の生成においてその可能性をまだ最大限に発揮していません。
対処しなければならない懸念があることが認識されているため、そのようなモデルが段階的に実際に導入されることが期待できます。

要約(オリジナル)

This review examines the development of abstractive NLP-based text summarization approaches and compares them to existing techniques for extractive summarization. A brief history of text summarization from the 1950s to the introduction of pre-trained language models such as Bidirectional Encoder Representations from Transformer (BERT) and Generative Pre-training Transformers (GPT) are presented. In total, 60 studies were identified in PubMed and Web of Science, of which 29 were excluded and 24 were read and evaluated for eligibility, resulting in the use of seven studies for further analysis. This chapter also includes a section with examples including an example of a comparison between GPT-3 and state-of-the-art GPT-4 solutions in scientific text summarisation. Natural language processing has not yet reached its full potential in the generation of brief textual summaries. As there are acknowledged concerns that must be addressed, we can expect gradual introduction of such models in practise.

arxiv情報

著者 Leon Kopitar,Primoz Kocbek,Lucija Gosak,Gregor Stiglic
発行日 2024-11-18 15:13:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク