要約
大規模言語モデル (LLM) は、特にチャット用に命令が調整されている場合には、私たちの日常生活の一部となり、さまざまな質問に対する簡単な答えを提供することで、人々を複数のソースから情報を検索、抽出、統合するプロセスから解放します。
一つの場所。
残念ながら、多くの場合、LLM 応答は事実に誤りがあり、現実世界のシナリオへの適用性が制限されます。
その結果、LLM の事実性を評価および改善する研究は、最近多くの研究の注目を集めています。
この調査では、主要な課題とそれに関連する原因を特定することを目的として既存の研究を批判的に分析し、LLM の事実性を改善するための潜在的な解決策を指摘し、オープンエンドのテキスト生成のための自動事実性評価の障害を分析します。
さらに、今後の研究がどこに向かうべきかについての見通しを提供します。
要約(オリジナル)
Large language models (LLMs), especially when instruction-tuned for chat, have become part of our daily lives, freeing people from the process of searching, extracting, and integrating information from multiple sources by offering a straightforward answer to a variety of questions in a single place. Unfortunately, in many cases, LLM responses are factually incorrect, which limits their applicability in real-world scenarios. As a result, research on evaluating and improving the factuality of LLMs has attracted a lot of research attention recently. In this survey, we critically analyze existing work with the aim to identify the major challenges and their associated causes, pointing out to potential solutions for improving the factuality of LLMs, and analyzing the obstacles to automated factuality evaluation for open-ended text generation. We further offer an outlook on where future research should go.
arxiv情報
著者 | Yuxia Wang,Minghan Wang,Muhammad Arslan Manzoor,Fei Liu,Georgi Georgiev,Rocktim Jyoti Das,Preslav Nakov |
発行日 | 2024-02-09 06:36:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google