Procedural Text Mining with Large Language Models

要約

自然言語処理の分野における最近の進歩、特に膨大な量の知識に基づいて事前トレーニングされた大規模な言語モデルの開発は、ナレッジ エンジニアリングの領域に新たな機会を生み出しています。
この論文では、増分質問応答方式で非構造化 PDF テキストから手順を抽出するという問題に取り組むために、ゼロショット学習設定とコンテキスト内学習設定の両方で大規模言語モデル (LLM) の使用法を調査します。
特に、現在の最先端の GPT-4 (Generative Pre-trained Transformer 4) モデルを活用し、手順とステップの定義と限られた数のオントロジーを含むコンテキスト内学習の 2 つのバリエーションを伴います。
少数ショット学習のサンプル。
この調査結果は、このアプローチの有望性と、コンテキスト内学習のカスタマイズの価値の両方を強調しています。
これらの修正は、手順抽出のための深層学習ベースの自然言語処理技術でよく遭遇するハードルである、十分なトレーニング データを取得するという課題に大きく対処する可能性があります。

要約(オリジナル)

Recent advancements in the field of Natural Language Processing, particularly the development of large-scale language models that are pretrained on vast amounts of knowledge, are creating novel opportunities within the realm of Knowledge Engineering. In this paper, we investigate the usage of large language models (LLMs) in both zero-shot and in-context learning settings to tackle the problem of extracting procedures from unstructured PDF text in an incremental question-answering fashion. In particular, we leverage the current state-of-the-art GPT-4 (Generative Pre-trained Transformer 4) model, accompanied by two variations of in-context learning that involve an ontology with definitions of procedures and steps and a limited number of samples of few-shot learning. The findings highlight both the promise of this approach and the value of the in-context learning customisations. These modifications have the potential to significantly address the challenge of obtaining sufficient training data, a hurdle often encountered in deep learning-based Natural Language Processing techniques for procedure extraction.

arxiv情報

著者 Anisa Rula,Jennifer D’Souza
発行日 2023-10-05 08:27:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IT, math.IT パーマリンク