月別アーカイブ: 2023年6月

Elixir: Train a Large Language Model on a Small GPU Cluster

要約 近年、大規模な言語モデルは、その前例のないサイズにより大きな成功を収めてい … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.LG | Elixir: Train a Large Language Model on a Small GPU Cluster はコメントを受け付けていません

Reverse Engineering Self-Supervised Learning

要約 自己教師あり学習 (SSL) は機械学習における強力なツールですが、学習さ … 続きを読む

カテゴリー: cs.AI, cs.LG | Reverse Engineering Self-Supervised Learning はコメントを受け付けていません

Handling Large Discrete Action Spaces via Dynamic Neighborhood Construction

要約 大規模な離散アクション空間は依然として強化学習手法の中心的な課題です。 こ … 続きを読む

カテゴリー: cs.AI, cs.LG | Handling Large Discrete Action Spaces via Dynamic Neighborhood Construction はコメントを受け付けていません

Med-UniC: Unifying Cross-Lingual Medical Vision-Language Pre-Training by Diminishing Bias

要約 データの不足は、医療ビジョン言語事前トレーニング (VLP) の有効性にと … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV | Med-UniC: Unifying Cross-Lingual Medical Vision-Language Pre-Training by Diminishing Bias はコメントを受け付けていません

Improving Expressivity of GNNs with Subgraph-specific Factor Embedded Normalization

要約 グラフ ニューラル ネットワーク (GNN) は、グラフ構造データを処理す … 続きを読む

カテゴリー: cs.AI, cs.LG | Improving Expressivity of GNNs with Subgraph-specific Factor Embedded Normalization はコメントを受け付けていません

Data Augmentation Approaches for Source Code Models: A Survey

要約 多くの重要なタスクでソース コードを採用することがますます一般的になり、ト … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SE | Data Augmentation Approaches for Source Code Models: A Survey はコメントを受け付けていません

Personalized Algorithmic Recourse with Preference Elicitation

要約 アルゴリズム リソース (AR) は、ユーザーが一度実行すると、望ましくな … 続きを読む

カテゴリー: cs.AI, cs.LG | Personalized Algorithmic Recourse with Preference Elicitation はコメントを受け付けていません

Representation-Driven Reinforcement Learning

要約 強化学習のための表現駆動型フレームワークを紹介します。 ポリシーをその期待 … 続きを読む

カテゴリー: cs.AI, cs.LG | Representation-Driven Reinforcement Learning はコメントを受け付けていません

MetaDiffuser: Diffusion Model as Conditional Planner for Offline Meta-RL

要約 最近、拡散モデルは、オフライン強化学習 (RL) におけるシーケンス モデ … 続きを読む

カテゴリー: cs.AI, cs.LG | MetaDiffuser: Diffusion Model as Conditional Planner for Offline Meta-RL はコメントを受け付けていません

Reinforcement Learning with Human Feedback: Learning Dynamic Choices via Pessimism

要約 この論文では、人間の選択によって引き起こされる一連の軌跡から、人間の根本的 … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC, math.ST, stat.ML, stat.TH | Reinforcement Learning with Human Feedback: Learning Dynamic Choices via Pessimism はコメントを受け付けていません