投稿者「jarxiv」のアーカイブ

Neural Quantum Digital Twins for Optimizing Quantum Annealing

要約 Quantum Annealersは、特定の組み合わせ最適化の問題に対処す … 続きを読む

カテゴリー: cs.AI, cs.ET, quant-ph | Neural Quantum Digital Twins for Optimizing Quantum Annealing はコメントを受け付けていません

GODBench: A Benchmark for Multimodal Large Language Models in Video Comment Art

要約 ビデオコメントアートは、ユーモア、風刺、または感情的な共鳴を伝える創造的な … 続きを読む

カテゴリー: cs.AI, cs.CL | GODBench: A Benchmark for Multimodal Large Language Models in Video Comment Art はコメントを受け付けていません

Learning Heuristics for Transit Network Design and Improvement with Deep Reinforcement Learning

要約 公共交通ルートのネットワークを計画することは、挑戦的な最適化の問題です。 … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.NE | Learning Heuristics for Transit Network Design and Improvement with Deep Reinforcement Learning はコメントを受け付けていません

Intermediate Languages Matter: Formal Choice Drives Neurosymbolic LLM Reasoning

要約 大規模な言語モデル(LLM)は、幅広いタスクで驚くべき結果を達成します。 … 続きを読む

カテゴリー: cs.AI, cs.CL | Intermediate Languages Matter: Formal Choice Drives Neurosymbolic LLM Reasoning はコメントを受け付けていません

UniErase: Unlearning Token as a Universal Erasure Primitive for Language Models

要約 大規模な言語モデルでは、知識の競合や時代遅れの情報(たとえば、間違っている … 続きを読む

カテゴリー: cs.AI, cs.CL | UniErase: Unlearning Token as a Universal Erasure Primitive for Language Models はコメントを受け付けていません

Towards Machine-Generated Code for the Resolution of User Intentions

要約 人工知能(AI)の成長能力、特に大規模な言語モデル(LLM)は、ユーザーと … 続きを読む

カテゴリー: cs.AI | Towards Machine-Generated Code for the Resolution of User Intentions はコメントを受け付けていません

A Federated Splitting Framework for LLMs: Security, Efficiency, and Adaptability

要約 プライベートデータは通常、パブリックデータよりも高品質であり、LLMを改善 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.DC | A Federated Splitting Framework for LLMs: Security, Efficiency, and Adaptability はコメントを受け付けていません

Spontaneous Giving and Calculated Greed in Language Models

要約 大規模な言語モデルは、考え方の促しや反射などの推論技術を通じて強い問題解決 … 続きを読む

カテゴリー: cs.AI, cs.CL | Spontaneous Giving and Calculated Greed in Language Models はコメントを受け付けていません

Average Reward Reinforcement Learning for Omega-Regular and Mean-Payoff Objectives

要約 補強学習(RL)の最近の進歩により、エージェントの動作を形成する報酬機能の … 続きを読む

カテゴリー: cs.AI | Average Reward Reinforcement Learning for Omega-Regular and Mean-Payoff Objectives はコメントを受け付けていません

A Unified Theoretical Analysis of Private and Robust Offline Alignment: from RLHF to DPO

要約 この論文では、プライバシーと敵対的な腐敗に対する堅牢性との相互作用に焦点を … 続きを読む

カテゴリー: cs.AI, cs.LG | A Unified Theoretical Analysis of Private and Robust Offline Alignment: from RLHF to DPO はコメントを受け付けていません