月別アーカイブ: 2024年5月

Scheduled Curiosity-Deep Dyna-Q: Efficient Exploration for Dialog Policy Learning

要約 強化学習に基づいてタスク指向の対話エージェントをトレーニングするには時間が … 続きを読む

カテゴリー: cs.AI, cs.LG | Scheduled Curiosity-Deep Dyna-Q: Efficient Exploration for Dialog Policy Learning はコメントを受け付けていません

Learning Force Control for Legged Manipulation

要約 インタラクション中の接触力を制御することは、移動や操作のタスクにとって重要 … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.RO, cs.SY, eess.SY | Learning Force Control for Legged Manipulation はコメントを受け付けていません

Robust Deep Reinforcement Learning with Adaptive Adversarial Perturbations in Action Space

要約 深層強化学習 (DRL) アルゴリズムでは、シミュレーションと現実世界の間 … 続きを読む

カテゴリー: cs.AI, cs.LG | Robust Deep Reinforcement Learning with Adaptive Adversarial Perturbations in Action Space はコメントを受け付けていません

A review on the use of large language models as virtual tutors

要約 Transformer アーキテクチャは、自然言語処理の長期的な依存関係の … 続きを読む

カテゴリー: cs.AI, cs.CL | A review on the use of large language models as virtual tutors はコメントを受け付けていません

Non-autoregressive Generative Models for Reranking Recommendation

要約 現代のレコメンデーション システムは、ユーザーの特定の要求や興味に合わせた … 続きを読む

カテゴリー: cs.AI, cs.IR | Non-autoregressive Generative Models for Reranking Recommendation はコメントを受け付けていません

Boolean matrix logic programming for active learning of gene functions in genome-scale metabolic network models

要約 研究を自律的に推進する技術は計算科学発見で顕著ですが、合成生物学は有用な目 … 続きを読む

カテゴリー: cs.AI, cs.LG, q-bio.MN | Boolean matrix logic programming for active learning of gene functions in genome-scale metabolic network models はコメントを受け付けていません

Scrutinize What We Ignore: Reining Task Representation Shift In Context-Based Offline Meta Reinforcement Learning

要約 オフライン メタ強化学習 (OMRL) は、事前に収集されたデータとメタ学 … 続きを読む

カテゴリー: cs.AI, cs.LG | Scrutinize What We Ignore: Reining Task Representation Shift In Context-Based Offline Meta Reinforcement Learning はコメントを受け付けていません

A New Baseline Assumption of Integated Gradients Based on Shaply value

要約 ディープ ニューラル ネットワーク (DNN) をデコードする作業には、多 … 続きを読む

カテゴリー: cs.AI, cs.LG | A New Baseline Assumption of Integated Gradients Based on Shaply value はコメントを受け付けていません

KG-RAG: Bridging the Gap Between Knowledge and Creativity

要約 大規模言語モデル エージェント (LMA) の創造的な能力を維持しながら事 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.IR | KG-RAG: Bridging the Gap Between Knowledge and Creativity はコメントを受け付けていません

Special Characters Attack: Toward Scalable Training Data Extraction From Large Language Models

要約 大規模言語モデル (LLM) は、幅広いタスクで顕著なパフォーマンスを達成 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Special Characters Attack: Toward Scalable Training Data Extraction From Large Language Models はコメントを受け付けていません