LLM-Oracle Machines

要約

現代の AI アプリケーションは、大規模言語モデル (LLM) を活用して、自然言語処理タスクの知識と推論能力を活用します。
このアプローチは、Oracle Turing Machine (OTM) の概念と類似点を共有します。
まだ実現されていない計算を含め、これらの計算のより幅広い可能性を捉えるために、LLM のクラスターをオラクルとして使用することで、OTM の拡張である LLM オラクル マシン (LLM-OM) を提案します。
各 LLM はブラック ボックスとして機能し、遅延はあるものの専門知識の範囲内でクエリに応答できます。
LLM-OM には、基本、拡張、障害回避、$\epsilon$-fault の 4 つのバリアントが導入されています。
最初の 2 つは、既存の AI アプリケーションでよく見られます。
後者の 2 つは、LLM の幻覚、偏見、不一致の課題に対処するように特別に設計されており、信頼できる結果を保証することを目指しています。

要約(オリジナル)

Contemporary AI applications leverage large language models (LLMs) to harness their knowledge and reasoning abilities for natural language processing tasks. This approach shares similarities with the concept of oracle Turing machines (OTMs). To capture the broader potential of these computations, including those not yet realized, we propose an extension to OTMs: the LLM-oracle machine (LLM-OM), by employing a cluster of LLMs as the oracle. Each LLM acts as a black box, capable of answering queries within its expertise, albeit with a delay. We introduce four variants of the LLM-OM: basic, augmented, fault-avoidance, and $\epsilon$-fault. The first two are commonly observed in existing AI applications. The latter two are specifically designed to address the challenges of LLM hallucinations, biases, and inconsistencies, aiming to ensure reliable outcomes.

arxiv情報

著者 Jie Wang
発行日 2024-07-02 13:07:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.FL, F.1.1 パーマリンク