cs.AI」カテゴリーアーカイブ

Three Kinds of AI Ethics

要約 AI倫理には圧倒的に豊富な作品があります。 この成長は、それがどれほど突然 … 続きを読む

カテゴリー: cs.AI, cs.CY | Three Kinds of AI Ethics はコメントを受け付けていません

Self-Organizing Graph Reasoning Evolves into a Critical State for Continuous Discovery Through Structural-Semantic Dynamics

要約 エージェントグラフ推論システムが、継続的なセマンティック発見を維持する重要 … 続きを読む

カテゴリー: cond-mat.mes-hall, cs.AI, cs.LG, nlin.AO, physics.app-ph | Self-Organizing Graph Reasoning Evolves into a Critical State for Continuous Discovery Through Structural-Semantic Dynamics はコメントを受け付けていません

Structuring Scientific Innovation: A Framework for Modeling and Discovering Impactful Knowledge Combinations

要約 大規模な言語モデルの出現は、科学的知識の構造化された探求のための新しい可能 … 続きを読む

カテゴリー: cs.AI | Structuring Scientific Innovation: A Framework for Modeling and Discovering Impactful Knowledge Combinations はコメントを受け付けていません

Reasoning to Learn from Latent Thoughts

要約 言語モデル(LM)の事前トレーニングのスケーリングを計算すると、人間が書い … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Reasoning to Learn from Latent Thoughts はコメントを受け付けていません

Bootstrapped Model Predictive Control

要約 モデル予測制御(MPC)は、継続的な制御タスクに効果的であることが実証され … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.RO | Bootstrapped Model Predictive Control はコメントを受け付けていません

FlowDock: Geometric Flow Matching for Generative Protein-Ligand Docking and Affinity Prediction

要約 タンパク質リガンド構造の強力な生成AIモデルが最近提案されていますが、これ … 続きを読む

カテゴリー: cs.AI, cs.LG, I.2.1, q-bio.BM, q-bio.QM | FlowDock: Geometric Flow Matching for Generative Protein-Ligand Docking and Affinity Prediction はコメントを受け付けていません

AgentDropout: Dynamic Agent Elimination for Token-Efficient and High-Performance LLM-Based Multi-Agent Collaboration

要約 大規模な言語モデル(LLM)に基づくマルチエージェントシステム(MAS)は … 続きを読む

カテゴリー: cs.AI, cs.CL | AgentDropout: Dynamic Agent Elimination for Token-Efficient and High-Performance LLM-Based Multi-Agent Collaboration はコメントを受け付けていません

SimpleRL-Zoo: Investigating and Taming Zero Reinforcement Learning for Open Base Models in the Wild

要約 Deepseek-R1は、長いチェーン(COT)の推論が、ルールベースの報 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | SimpleRL-Zoo: Investigating and Taming Zero Reinforcement Learning for Open Base Models in the Wild はコメントを受け付けていません

Subversion Strategy Eval: Can language models statelessly strategize to subvert control protocols?

要約 AIコントロールプロトコルは、AIが意図的に容認できない結果を引き起こすの … 続きを読む

カテゴリー: cs.AI, cs.LG | Subversion Strategy Eval: Can language models statelessly strategize to subvert control protocols? はコメントを受け付けていません

Statistical Proof of Execution (SPEX)

要約 多くの現実世界のアプリケーションは、計画とガイダンスのためのML/AI推論 … 続きを読む

カテゴリー: cs.AI, cs.CR | Statistical Proof of Execution (SPEX) はコメントを受け付けていません