I.2.0」カテゴリーアーカイブ

Credible plan-driven RAG method for Multi-hop Question Answering

要約 マルチホップ質問応答(QA)は、検索された生成(RAG)にかなりの課題を提 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.0 | Credible plan-driven RAG method for Multi-hop Question Answering はコメントを受け付けていません

Achieving Distributive Justice in Federated Learning via Uncertainty Quantification

要約 連合学習のクライアントレベルの公平性メトリックは、連邦のすべてのクライアン … 続きを読む

カテゴリー: 68T01, cs.AI, cs.LG, I.2.0, stat.ML | Achieving Distributive Justice in Federated Learning via Uncertainty Quantification はコメントを受け付けていません

Learning Actionable World Models for Industrial Process Control

要約 (パッシブ)プロセスモニタリングからアクティブプロセス制御に移行するには、 … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.SY, eess.SY, I.2.0 | Learning Actionable World Models for Industrial Process Control はコメントを受け付けていません

Proof-Carrying Neuro-Symbolic Code

要約 この招待された論文は、「神経系コード」の「プルーフを運ぶ神経系コード」の概 … 続きを読む

カテゴリー: cs.AI, cs.LO, cs.PL, I.2.0 | Proof-Carrying Neuro-Symbolic Code はコメントを受け付けていません

Evaluating the Application of SOLID Principles in Modern AI Framework Architectures

要約 この研究では、最新のAIフレームワーク、特にTensorflowとScik … 続きを読む

カテゴリー: 68N19, 68T01, cs.AI, cs.LG, cs.SE, I.2.0 | Evaluating the Application of SOLID Principles in Modern AI Framework Architectures はコメントを受け付けていません

BEATS: Bias Evaluation and Assessment Test Suite for Large Language Models

要約 この研究では、大規模な言語モデル(LLMS)におけるバイアス、倫理、公平性 … 続きを読む

カテゴリー: (Primary), 68T50, cs.AI, cs.CL, I.2.0 | BEATS: Bias Evaluation and Assessment Test Suite for Large Language Models はコメントを受け付けていません

AI Literacy in K-12 and Higher Education in the Wake of Generative AI: An Integrative Review

要約 AIリテラシーは、生成的AIをきっかけに著名な教育トピックとして浮上しまし … 続きを読む

カテゴリー: cs.AI, cs.CY, I.2.0 | AI Literacy in K-12 and Higher Education in the Wake of Generative AI: An Integrative Review はコメントを受け付けていません

Guarding against artificial intelligence–hallucinated citations: the case for full-text reference deposit

要約 生成人工知能(AI)システムが誤った情報を「幻覚」する傾向はよく知られてい … 続きを読む

カテゴリー: cs.AI, cs.DL, I.2.0 | Guarding against artificial intelligence–hallucinated citations: the case for full-text reference deposit はコメントを受け付けていません

HCAST: Human-Calibrated Autonomy Software Tasks

要約 非常に自律的なAIシステムの社会的影響を理解して予測するには、接地を備えた … 続きを読む

カテゴリー: cs.AI, I.2.0 | HCAST: Human-Calibrated Autonomy Software Tasks はコメントを受け付けていません

Do Chains-of-Thoughts of Large Language Models Suffer from Hallucinations, Cognitive Biases, or Phobias in Bayesian Reasoning?

要約 議論を推論し、慎重に説明することを学ぶことは、学生の認知、数学、および計算 … 続きを読む

カテゴリー: cs.AI, I.2.0 | Do Chains-of-Thoughts of Large Language Models Suffer from Hallucinations, Cognitive Biases, or Phobias in Bayesian Reasoning? はコメントを受け付けていません