要約
この研究では、事前トレーニング済みの大規模言語モデル (LLM) の命令微調整を適用して、記事から (タスク、データセット、メトリック、スコア) 4 倍を抽出する AI 研究リーダーボードの生成を自動化する方法を実証します。
従来の手動によるコミュニティキュレーション、または分類法に制約のある自然言語推論 (NLI) モデルから、自動化された生成型 LLM ベースのアプローチに移行することで、AI 研究の進歩の普及を合理化することを目的としています。
この研究は、FLAN-T5 モデルを利用して、情報抽出における LLM の適応性と信頼性を強化し、構造化された知識表現のための新しい方法を提供します。
要約(オリジナル)
This study demonstrates the application of instruction finetuning of pretrained Large Language Models (LLMs) to automate the generation of AI research leaderboards, extracting (Task, Dataset, Metric, Score) quadruples from articles. It aims to streamline the dissemination of advancements in AI research by transitioning from traditional, manual community curation, or otherwise taxonomy-constrained natural language inference (NLI) models, to an automated, generative LLM-based approach. Utilizing the FLAN-T5 model, this research enhances LLMs’ adaptability and reliability in information extraction, offering a novel method for structured knowledge representation.
arxiv情報
著者 | Salomon Kabongo,Jennifer D’Souza |
発行日 | 2024-08-19 16:41:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google