要約
このペーパーでは、言語哲学と精神分析のレンズを通して、大規模な言語モデル(LLMS)の幻覚現象を探ります。
ラカンの「シグニファイアーのチェーン」と「縫合ポイント」の概念を組み込むことにより、アンカーラグフレームワークを幻覚を緩和するための斬新なアプローチとして提案します。
試行錯誤の実験、数学的処方の絶え間ない調整、または質の高い量を強調するリソース集約的な方法への主な依存とは対照的に、私たちのアプローチは、LLMSの幻覚の根本原因を分析するために言語学の基本原則に戻ります。
堅牢な理論的基礎から描画すると、幻覚を減らすのに効果的であるだけでなく、LLMのパフォーマンスを向上させ、出力品質を向上させるアルゴリズムとモデルを導き出します。
このペーパーでは、LLMSでの幻覚を理解するための包括的な理論的枠組みを確立しようとしており、この分野で一般的な「推測」アプローチとラット人種のメンタリティに挑戦することを目指しています。
私たちは、解釈可能なLLMの新しい時代への道を開くことを目指しており、言語ベースのAIシステムの内部の働きに関するより深い洞察を提供します。
要約(オリジナル)
This paper explores hallucination phenomena in large language models (LLMs) through the lens of language philosophy and psychoanalysis. By incorporating Lacan’s concepts of the ‘chain of signifiers’ and ‘suture points,’ we propose the Anchor-RAG framework as a novel approach to mitigate hallucinations. In contrast to the predominant reliance on trial-and-error experiments, constant adjustments of mathematical formulas, or resource-intensive methods that emphasize quantity over quality, our approach returns to the fundamental principles of linguistics to analyze the root causes of hallucinations in LLMs. Drawing from robust theoretical foundations, we derive algorithms and models that are not only effective in reducing hallucinations but also enhance LLM performance and improve output quality. This paper seeks to establish a comprehensive theoretical framework for understanding hallucinations in LLMs and aims to challenge the prevalent ‘guess-and-test’ approach and rat race mentality in the field. We aspire to pave the way for a new era of interpretable LLMs, offering deeper insights into the inner workings of language-based AI systems.
arxiv情報
著者 | Qiantong Wang |
発行日 | 2025-03-18 16:27:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google