cs.AI」カテゴリーアーカイブ

Teaming in the AI Era: AI-Augmented Frameworks for Forming, Simulating, and Optimizing Human Teams

要約 効果的なチームワークは、多様なドメインで不可欠です。 チームの形成段階では … 続きを読む

カテゴリー: cs.AI, cs.HC, cs.MA | Teaming in the AI Era: AI-Augmented Frameworks for Forming, Simulating, and Optimizing Human Teams はコメントを受け付けていません

Context is Key: A Benchmark for Forecasting with Essential Textual Information

要約 予測は、多くのドメインにわたる意思決定における重要なタスクです。 履歴数値 … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Context is Key: A Benchmark for Forecasting with Essential Textual Information はコメントを受け付けていません

Micro-Act: Mitigate Knowledge Conflict in Question Answering via Actionable Self-Reasoning

要約 検索された生成(RAG)システムは、一般に知識の対立に苦しみます。 質問応 … 続きを読む

カテゴリー: cs.AI, cs.CL | Micro-Act: Mitigate Knowledge Conflict in Question Answering via Actionable Self-Reasoning はコメントを受け付けていません

Fast-DataShapley: Neural Modeling for Training Data Valuation

要約 トレーニングデータの価値と著作権は、人工知能業界で重要です。 サービスプラ … 続きを読む

カテゴリー: cs.AI, cs.LG | Fast-DataShapley: Neural Modeling for Training Data Valuation はコメントを受け付けていません

Sample Complexity and Representation Ability of Test-time Scaling Paradigms

要約 テスト時間スケーリングパラダイムは、複雑なタスク上の大規模な言語モデル(L … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Sample Complexity and Representation Ability of Test-time Scaling Paradigms はコメントを受け付けていません

Control Tax: The Price of Keeping AI in Check

要約 エージェントAIをハイステークスの現実世界アプリケーションに迅速に統合する … 続きを読む

カテゴリー: cs.AI, cs.LG | Control Tax: The Price of Keeping AI in Check はコメントを受け付けていません

ProRefine: Inference-time Prompt Refinement with Textual Feedback

要約 複数のAIエージェントが協力して推論や計画などの複雑なタスクを達成するエー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | ProRefine: Inference-time Prompt Refinement with Textual Feedback はコメントを受け付けていません

Time to Talk: LLM Agents for Asynchronous Group Communication in Mafia Games

要約 LLMは、主に同期通信で使用され、人間のユーザーとモデルが交互ターンで通信 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.MA | Time to Talk: LLM Agents for Asynchronous Group Communication in Mafia Games はコメントを受け付けていません

Constrained Entropic Unlearning: A Primal-Dual Framework for Large Language Models

要約 現実世界の設定で展開された大規模な言語モデル(LLM)は、繊細、時代遅れ、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Constrained Entropic Unlearning: A Primal-Dual Framework for Large Language Models はコメントを受け付けていません

Improving Data Efficiency for LLM Reinforcement Fine-tuning Through Difficulty-targeted Online Data Selection and Rollout Replay

要約 強化学習(RL)は、特に推論能力を高めるために、大規模な言語モデル(LLM … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Improving Data Efficiency for LLM Reinforcement Fine-tuning Through Difficulty-targeted Online Data Selection and Rollout Replay はコメントを受け付けていません