要約
大規模言語モデル (LLM) における幻覚の問題は、エンタープライズやその他のリスクの高いアプリケーションでの AI の導入に対する重大な障壁となっています。
検索拡張生成 (RAG) システムの進歩にも関わらず、現在の最先端の方法では、関連性があり正確なコンテキストが提供された場合でも、忠実で事実に正確な出力を生成する際に 80% 以上の精度を達成できません。
この研究では、入力前にクエリとコンテキスト データを再フォーマットすることにより、LLM で 100% 幻覚のない応答を達成する新しい体系的なアプローチである Acurai を紹介します。
Acurai は、LLM の内部表現、名詞句の優位性の重要性、離散機能単位 (DFU) の役割についての深い理解を活用して、入力コンテキストと生成された出力の間の整合性を確保します。
RAGTruth コーパスを使用してこの方法を検証し、GPT-4 と GPT-3.5 Turbo の両方の幻覚を 100% 除去する能力を実証します。
アキュライは、一貫性があり、正確かつ忠実な AI 応答を実現するための新しい基準を設定し、信頼できる AI システムの開発における重要な前進を示します。
要約(オリジナル)
The issue of hallucinations in large language models (LLMs) remains a critical barrier to the adoption of AI in enterprise and other high-stakes applications. Despite advancements in retrieval-augmented generation (RAG) systems, current state-of-the-art methods fail to achieve more than 80% accuracy in generating faithful and factually correct outputs, even when provided with relevant and accurate context. In this work, we introduce Acurai, a novel systematic approach that achieves 100% hallucination-free responses in LLMs by reformatting queries and context data prior to input. Leveraging a deep understanding of LLM internal representations, the importance of noun-phrase dominance, and the role of discrete functional units (DFUs), Acurai ensures alignment between input context and generated output. We validate this method using the RAGTruth corpus, demonstrating its ability to eliminate 100% hallucinations for both GPT-4 and GPT-3.5 Turbo. Acurai sets a new standard for achieving consistent, accurate, and faithful AI responses, marking a significant step forward in the development of trustworthy AI systems.
arxiv情報
著者 | Michael C. Wood,Adam A. Forbes |
発行日 | 2024-12-06 17:54:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google