要約
大規模な言語モデル(LLMS)における幻覚の問題は、企業やその他のハイステークスアプリケーションにおけるAIの採用に対する重要な障壁のままです。
検索された生成(RAG)システムの進歩にもかかわらず、現在の最先端の方法は、関連する正確なコンテキストが提供されたとしても、忠実で事実上正しい出力を生成する際に80%以上の精度を達成できません。
この作業では、入力前にクエリとコンテキストデータを再フォーマットすることにより、LLMSで100%の幻覚のない応答を達成する新しい系統的アプローチであるAcuraiを紹介します。
LLMの内部表現、名詞眼の優位性の重要性、離散官能ユニット(DFU)の役割を深く理解することで、Acuraiは入力コンテキストと生成された出力の間の整合を保証します。
Ragtruth Corpusを使用してこの方法を検証し、GPT-4とGPT-3.5ターボの両方の100%の幻覚を排除する能力を示しています。
Acuraiは、信頼できるAIシステムの開発において重要な一歩をマークし、一貫した正確で忠実なAI応答を達成するための新しい基準を設定しています。
要約(オリジナル)
The issue of hallucinations in large language models (LLMs) remains a critical barrier to the adoption of AI in enterprise and other high-stakes applications. Despite advancements in retrieval-augmented generation (RAG) systems, current state-of-the-art methods fail to achieve more than 80% accuracy in generating faithful and factually correct outputs, even when provided with relevant and accurate context. In this work, we introduce Acurai, a novel systematic approach that achieves 100% hallucination-free responses in LLMs by reformatting queries and context data prior to input. Leveraging a deep understanding of LLM internal representations, the importance of noun-phrase dominance, and the role of discrete functional units (DFUs), Acurai ensures alignment between input context and generated output. We validate this method using the RAGTruth corpus, demonstrating its ability to eliminate 100% hallucinations for both GPT-4 and GPT-3.5 Turbo. Acurai sets a new standard for achieving consistent, accurate, and faithful AI responses, marking a significant step forward in the development of trustworthy AI systems.
arxiv情報
著者 | Michael C. Wood,Adam A. Forbes |
発行日 | 2025-03-26 15:18:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google