月別アーカイブ: 2025年5月

From What Ifs to Insights: Counterfactuals in Causal Inference vs. Explainable AI

要約 反事実は、因果推論の2つの異なるデータサイエンス分野(CI)と説明可能な人 … 続きを読む

カテゴリー: cs.AI, cs.LG, econ.EM, stat.ME, stat.ML | From What Ifs to Insights: Counterfactuals in Causal Inference vs. Explainable AI はコメントを受け付けていません

Recommender Systems for Democracy: Toward Adversarial Robustness in Voting Advice Applications

要約 投票アドバイスアプリケーション(VAA)は、何百万人もの有権者が、どの政党 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CY | Recommender Systems for Democracy: Toward Adversarial Robustness in Voting Advice Applications はコメントを受け付けていません

Lost in Transmission: When and Why LLMs Fail to Reason Globally

要約 多くの成功にもかかわらず、トランスベースの大手言語モデル(LLMS)は、入 … 続きを読む

カテゴリー: cs.AI, cs.FL, cs.LG | Lost in Transmission: When and Why LLMs Fail to Reason Globally はコメントを受け付けていません

Contextual Paralinguistic Data Creation for Multi-Modal Speech-LLM: Data Condensation and Spoken QA Generation

要約 現在の音声-LLMは、主に両方の側面をカバーする質問回答(QA)データセッ … 続きを読む

カテゴリー: cs.AI, cs.CL, eess.AS | Contextual Paralinguistic Data Creation for Multi-Modal Speech-LLM: Data Condensation and Spoken QA Generation はコメントを受け付けていません

OPA-Pack: Object-Property-Aware Robotic Bin Packing

要約 ロボットビンパッキングは、eコマースや倉庫などの幅広い現実世界のシナリオで … 続きを読む

カテゴリー: cs.AI, cs.RO | OPA-Pack: Object-Property-Aware Robotic Bin Packing はコメントを受け付けていません

J4R: Learning to Judge with Equivalent Initial State Group Relative Preference Optimization

要約 大規模な言語モデル(LLM)開発のペースの増加に対応するために、モデルの出 … 続きを読む

カテゴリー: cs.AI, cs.CL | J4R: Learning to Judge with Equivalent Initial State Group Relative Preference Optimization はコメントを受け付けていません

Yes, Q-learning Helps Offline In-Context RL

要約 既存のオフライン内コンテキスト補強学習(ICRL)メソッドは、主にオフライ … 続きを読む

カテゴリー: cs.AI, cs.LG | Yes, Q-learning Helps Offline In-Context RL はコメントを受け付けていません

Multi-Armed Bandits Meet Large Language Models

要約 Banditアルゴリズムと大規模な言語モデル(LLM)は、人工知能の強力な … 続きを読む

カテゴリー: cs.AI | Multi-Armed Bandits Meet Large Language Models はコメントを受け付けていません

One-Step Offline Distillation of Diffusion-based Models via Koopman Modeling

要約 拡散ベースの生成モデルは並外れたパフォーマンスを実証していますが、それらの … 続きを読む

カテゴリー: cs.AI, cs.LG | One-Step Offline Distillation of Diffusion-based Models via Koopman Modeling はコメントを受け付けていません

Exploiting Symbolic Heuristics for the Synthesis of Domain-Specific Temporal Planning Guidance using Reinforcement Learning

要約 最近の研究では、ドメインが固定され、一連のトレーニング問題(計画ではない) … 続きを読む

カテゴリー: cs.AI | Exploiting Symbolic Heuristics for the Synthesis of Domain-Specific Temporal Planning Guidance using Reinforcement Learning はコメントを受け付けていません