要約
ChatGPT、Bard、Llama などの大規模言語モデル (LLM) は、過去 2 年間にわたってさまざまなアプリケーションで目覚ましい成功を収めてきました。
これらの成功にもかかわらず、LLM の広範な適用を制限する懸念が存在します。
重要な問題は幻覚の問題です。
幻覚とは、正しい応答に加えて、LLM が一見正しいように見えても事実としては間違った応答も生成する可能性があるという事実を指します。
このレポートは、幻覚の検出と幻覚の軽減の両方に関する現在の文献の包括的なレビューを提示することを目的としています。
このレポートが、LLM と現実世界のタスクへの適用に興味のあるエンジニアと研究者の両方にとって良い参考になることを願っています。
要約(オリジナル)
Large language models (LLMs), including ChatGPT, Bard, and Llama, have achieved remarkable successes over the last two years in a range of different applications. In spite of these successes, there exist concerns that limit the wide application of LLMs. A key problem is the problem of hallucination. Hallucination refers to the fact that in addition to correct responses, LLMs can also generate seemingly correct but factually incorrect responses. This report aims to present a comprehensive review of the current literature on both hallucination detection and hallucination mitigation. We hope that this report can serve as a good reference for both engineers and researchers who are interested in LLMs and applying them to real world tasks.
arxiv情報
著者 | Junliang Luo,Tianyu Li,Di Wu,Michael Jenkin,Steve Liu,Gregory Dudek |
発行日 | 2024-01-16 13:36:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google