要約
この記事では、人工知能(AI)システムにおける証明可能な正確性と広範なデータマッピング容量の間の基本的なトレードオフを形式化する推測を紹介します。
AIシステムが控えめに水密保証のために設計されている場合(その出力のエラーのない性質についての実証可能な確実性) – 古典的な象徴的なAIのように、その運用ドメインは狭く囲まれ、事前に構造化されなければなりません。
逆に、現代の生成モデルのように、高次元データを入力して豊富な情報出力を生成できるシステムは、必然的にエラーのパフォーマンスの可能性を放棄し、既確のエラーまたは誤分類のリスクを負担します。
これが以前に暗黙のトレードオフを明示的かつ厳密な検証に開放することにより、推測はAIに対するエンジニアリングの野望と哲学的期待の両方を大幅に再構成します。
この緊張の歴史的動機をレビューした後、この記事では、情報理論形式の推測を述べ、認識論、正式な検証、および技術哲学に関するより広範な議論の中でそれを文脈化します。
次に、その意味と結果の分析を提供し、未定の概念、慎重な認識論的リスク、道徳的責任を引き付けます。
この議論では、正しい場合、推測が評価基準、ガバナンスフレームワーク、ハイブリッドシステムの設計をどのように再構築するのに役立つかを明確にします。
結論は、信頼できるAIの将来の不平等を最終的に証明または反論することの重要性を強調しています。
要約(オリジナル)
This article introduces a conjecture that formalises a fundamental trade-off between provable correctness and broad data-mapping capacity in Artificial Intelligence (AI) systems. When an AI system is engineered for deductively watertight guarantees (demonstrable certainty about the error-free nature of its outputs) — as in classical symbolic AI — its operational domain must be narrowly circumscribed and pre-structured. Conversely, a system that can input high-dimensional data to produce rich information outputs — as in contemporary generative models — necessarily relinquishes the possibility of zero-error performance, incurring an irreducible risk of errors or misclassification. By making this previously implicit trade-off explicit and open to rigorous verification, the conjecture significantly reframes both engineering ambitions and philosophical expectations for AI. After reviewing the historical motivations for this tension, the article states the conjecture in information-theoretic form and contextualises it within broader debates in epistemology, formal verification, and the philosophy of technology. It then offers an analysis of its implications and consequences, drawing on notions of underdetermination, prudent epistemic risk, and moral responsibility. The discussion clarifies how, if correct, the conjecture would help reshape evaluation standards, governance frameworks, and hybrid system design. The conclusion underscores the importance of eventually proving or refuting the inequality for the future of trustworthy AI.
arxiv情報
著者 | Luciano Floridi |
発行日 | 2025-06-17 16:13:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google