投稿者「jarxiv」のアーカイブ

Generative Agents for Multi-Agent Autoformalization of Interaction Scenarios

要約 マルチエージェントシミュレーションは、自然および人工薬剤間の相互作用を調査 … 続きを読む

カテゴリー: cs.AI | Generative Agents for Multi-Agent Autoformalization of Interaction Scenarios はコメントを受け付けていません

Towards Unified Attribution in Explainable AI, Data-Centric AI, and Mechanistic Interpretability

要約 AIシステムの複雑さの増加により、行動が重要になりました。 モデルの動作を … 続きを読む

カテゴリー: cs.AI, cs.LG | Towards Unified Attribution in Explainable AI, Data-Centric AI, and Mechanistic Interpretability はコメントを受け付けていません

Securing AI Agents with Information-Flow Control

要約 AIエージェントがますます自律的で能力が高まるにつれて、迅速な注入などの脆 … 続きを読む

カテゴリー: cs.AI, cs.CR | Securing AI Agents with Information-Flow Control はコメントを受け付けていません

Burger: Robust Graph Denoising-augmentation Fusion and Multi-semantic Modeling in Social Recommendation

要約 ソーシャルメディアの急速な発展の時代では、ハイブリッド推奨システムとしての … 続きを読む

カテゴリー: cs.AI, cs.IR, cs.SI, F.2.2 | Burger: Robust Graph Denoising-augmentation Fusion and Multi-semantic Modeling in Social Recommendation はコメントを受け付けていません

Carbon-Efficient 3D DNN Acceleration: Optimizing Performance and Sustainability

要約 深いニューラルネットワーク(DNNS)が人工知能の進歩を引き続き促進するに … 続きを読む

カテゴリー: cs.AI, cs.AR | Carbon-Efficient 3D DNN Acceleration: Optimizing Performance and Sustainability はコメントを受け付けていません

Keyed Chaotic Tensor Transformations for Secure And Attributable Neural Inference

要約 この作業では、重要なカオス動的変換に基づいて、安全でプライバシーを提供する … 続きを読む

カテゴリー: 37N25, 68T05, 94A60, cs.AI, cs.CR, D.4.6 | Keyed Chaotic Tensor Transformations for Secure And Attributable Neural Inference はコメントを受け付けていません

Active Layer-Contrastive Decoding Reduces Hallucination in Large Language Model Generation

要約 最近のデコード方法は、大規模な言語モデル〜(LLMS)の事実を改善します。 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Active Layer-Contrastive Decoding Reduces Hallucination in Large Language Model Generation はコメントを受け付けていません

Fortune: Formula-Driven Reinforcement Learning for Symbolic Table Reasoning in Language Models

要約 テーブルは、データを整理および分析するための基本的な構造であり、インテリジ … 続きを読む

カテゴリー: cs.AI | Fortune: Formula-Driven Reinforcement Learning for Symbolic Table Reasoning in Language Models はコメントを受け付けていません

SLiM: One-shot Quantization and Sparsity with Low-rank Approximation for LLM Weight Compression

要約 LLMの従来のモデル圧縮技術は、高いメモリ消費と遅い推論の課題に対処します … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.PF | SLiM: One-shot Quantization and Sparsity with Low-rank Approximation for LLM Weight Compression はコメントを受け付けていません

GSO: Challenging Software Optimization Tasks for Evaluating SWE-Agents

要約 高性能ソフトウェアの開発は、専門的な専門知識を必要とする複雑なタスクです。 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.SE | GSO: Challenging Software Optimization Tasks for Evaluating SWE-Agents はコメントを受け付けていません