要約
現代のAIアプリケーションは、大規模言語モデル(LLM)を活用し、その知識と推論能力を自然言語処理タスクに利用している。このアプローチは、オラクル・チューリング・マシン(OTM)の概念と類似している。LLMのクラスタをオラクルとして採用することで、まだ実現されていないものも含め、これらの計算の幅広い可能性を捉えるために、我々はOTMの拡張としてLLM-オラクルマシン(LLM-OM)を提案する。各LLMはブラックボックスとして機能し、遅延はあるものの、その専門知識の範囲内でクエリに答えることができる。LLM-OMには、基本、拡張、障害回避、$epsilon$-faultの4種類がある。最初の二つは、既存のAIアプリケーションで一般的に観察される。後者の2つは、LLMの幻覚、バイアス、矛盾の課題に対処するために特別に設計されており、信頼できる結果を保証することを目的としている。
要約(オリジナル)
Contemporary AI applications leverage large language models (LLMs) to harness their knowledge and reasoning abilities for natural language processing tasks. This approach shares similarities with the concept of oracle Turing machines (OTMs). To capture the broader potential of these computations, including those not yet realized, we propose an extension to OTMs: the LLM-oracle machine (LLM-OM), by employing a cluster of LLMs as the oracle. Each LLM acts as a black box, capable of answering queries within its expertise, albeit with a delay. We introduce four variants of the LLM-OM: basic, augmented, fault-avoidance, and $\epsilon$-fault. The first two are commonly observed in existing AI applications. The latter two are specifically designed to address the challenges of LLM hallucinations, biases, and inconsistencies, aiming to ensure reliable outcomes.
arxiv情報
著者 | Jie Wang |
発行日 | 2024-07-03 12:59:21+00:00 |
arxivサイト | arxiv_id(pdf) |