要約
大規模言語モデル (LLM) は、通常の長さの NLP タスクよりも劇的な習熟度を達成しました。
最近、複数の研究がコンテキストの長さを延長し、LLM の長文モデリング機能を強化することに取り組んでいます。
LLM のロングコンテキスト能力を包括的に評価するために、マルチタスクのロングコンテキストベンチマークである BAMBOO を提案します。
BAMBOO は、包括的な容量評価、データ汚染の回避、正確な自動評価、さまざまな長さのレベルという 4 つの原則に基づいて設計されています。
これは、LLM の中核能力とさまざまな領域をカバーする、5 つの異なる長文理解タスク (質問応答、幻覚検出、テキスト並べ替え、言語モデリング、コード補完) からの 10 個のデータセットで構成されています。
BAMBOO で 5 つの長いコンテキスト モデルを使用して実験を行い、長いテキストに関する 4 つの重要な研究課題についてさらに議論します。
また、現在の長文コンテキスト モデルを定性的に分析し、長文モデリング能力を強化するための将来の方向性を指摘します。
データ、プロンプト、コードは https://github.com/RUCAIBox/BAMBOO でリリースされています。
要約(オリジナル)
Large language models (LLMs) have achieved dramatic proficiency over NLP tasks with normal length. Recently, multiple studies have committed to extending the context length and enhancing the long text modeling capabilities of LLMs. To comprehensively evaluate the long context ability of LLMs, we propose BAMBOO, a multi-task long context benchmark. BAMBOO has been designed with four principles: comprehensive capacity evaluation, avoidance of data contamination, accurate automatic evaluation, and different length levels. It consists of 10 datasets from 5 different long text understanding tasks, i.e. question answering, hallucination detection, text sorting, language modeling, and code completion, to cover core capacities and various domains of LLMs. We conduct experiments with five long context models on BAMBOO and further discuss four key research questions of long text. We also qualitatively analyze current long context models and point out future directions for enhancing long text modeling capacities. We release our data, prompts, and code at https://github.com/RUCAIBox/BAMBOO.
arxiv情報
著者 | Zican Dong,Tianyi Tang,Junyi Li,Wayne Xin Zhao,Ji-Rong Wen |
発行日 | 2024-03-19 09:00:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google