Learnings from Data Integration for Augmented Language Models

要約

【タイトル】
Augmented Language Modelsについてのデータ統合の学習

【要約】
– 大規模言語モデルの制限の一つは、最新の、独自の、または個人的なデータへのアクセスができないことである。
– そのため、外部データにアクセスするための技術を拡張するための多数の試みがある。
– LLM(Large Language Models)は、異種データソースの大規模なコレクションへのシームレスなアクセスを提供することを目的とするデータ統合システムのビジョンを共有している。
– LLMの詳細と技術はデータ統合とは大きく異なるが、本論文は、データ統合の研究から学んだいくつかの教訓が、我々が今日行っている言語モデルの研究の道筋を明らかにすることを示している。

要約(オリジナル)

One of the limitations of large language models is that they do not have access to up-to-date, proprietary or personal data. As a result, there are multiple efforts to extend language models with techniques for accessing external data. In that sense, LLMs share the vision of data integration systems whose goal is to provide seamless access to a large collection of heterogeneous data sources. While the details and the techniques of LLMs differ greatly from those of data integration, this paper shows that some of the lessons learned from research on data integration can elucidate the research path we are conducting today on language models.

arxiv情報

著者 Alon Halevy,Jane Dwivedi-Yu
発行日 2023-04-10 13:28:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL パーマリンク