LightHouse: A Survey of AGI Hallucination

要約

人工知能の発展に伴い、大規模モデルはますますインテリジェントになりました。
しかし、多くの研究は、これらの大規模なモデル内の幻覚が AI 研究の発展を妨げるボトルネックであることを示しています。
強力な人工知能の実現を目指して、AGI (汎用人工知能) 幻覚研究に多大な研究努力が費やされています。
これまでの調査では、LLM (大規模言語モデル) 内の幻覚の研究が行われてきました。
マルチモーダル AGI に関しては、幻覚に関する研究はまだ初期段階にあります。
幻覚現象の分野における研究の進歩をさらに進めるために、AGI における幻覚の鳥瞰図を提示し、AGI 幻覚に関する現在の研究を要約し、将来の研究の方向性をいくつか提案します。

要約(オリジナル)

With the development of artificial intelligence, large-scale models have become increasingly intelligent. However, numerous studies indicate that hallucinations within these large models are a bottleneck hindering the development of AI research. In the pursuit of achieving strong artificial intelligence, a significant volume of research effort is being invested in the AGI (Artificial General Intelligence) hallucination research. Previous explorations have been conducted in researching hallucinations within LLMs (Large Language Models). As for multimodal AGI, research on hallucinations is still in an early stage. To further the progress of research in the domain of hallucinatory phenomena, we present a bird’s eye view of hallucinations in AGI, summarizing the current work on AGI hallucinations and proposing some directions for future research.

arxiv情報

著者 Feng Wang
発行日 2024-01-17 04:40:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク