月別アーカイブ: 2024年1月

Smoothing Methods for Automatic Differentiation Across Conditional Branches

要約 条件分岐などの制御フロー構造によって導入される不連続性を含むプログラムは、 … 続きを読む

カテゴリー: cs.LG, cs.MS, math.OC | Smoothing Methods for Automatic Differentiation Across Conditional Branches はコメントを受け付けていません

Learning Discretized Neural Networks under Ricci Flow

要約 この論文では、低精度の重みと活性化で構成される離散化ニューラル ネットワー … 続きを読む

カテゴリー: cs.IT, cs.LG, cs.NE, math.IT | Learning Discretized Neural Networks under Ricci Flow はコメントを受け付けていません

Uncertainty in GNN Learning Evaluations: A Comparison Between Measures for Quantifying Randomness in GNN Community Detection

要約 (1) クラスター化されたノードの教師なしコミュニティ検出におけるグラフ … 続きを読む

カテゴリー: cs.LG, cs.SI, physics.soc-ph | Uncertainty in GNN Learning Evaluations: A Comparison Between Measures for Quantifying Randomness in GNN Community Detection はコメントを受け付けていません

Training Single-Layer Morphological Perceptron Using Convex-Concave Programming

要約 この論文は、規律ある凸凹プログラミング (DCCP) を使用した単層形態学 … 続きを読む

カテゴリー: cs.LG | Training Single-Layer Morphological Perceptron Using Convex-Concave Programming はコメントを受け付けていません

Robust Physics Informed Neural Networks

要約 偏微分方程式 (PDE) 解を近似するために、物理情報に基づいたニューラル … 続きを読む

カテゴリー: 65M99, 68T07, cs.LG, cs.NA, G.1.8, math.NA | Robust Physics Informed Neural Networks はコメントを受け付けていません

Approximating the Shapley Value without Marginal Contributions

要約 Shapley 値は、おそらく協力ゲームでプレイヤーに意味のある貢献値を割 … 続きを読む

カテゴリー: cs.GT, cs.LG | Approximating the Shapley Value without Marginal Contributions はコメントを受け付けていません

On Model Compression for Neural Networks: Framework, Algorithm, and Convergence Guarantee

要約 モデル圧縮は、特に多くのアプリケーションでコンピューティング デバイスのメ … 続きを読む

カテゴリー: cs.LG, stat.ML | On Model Compression for Neural Networks: Framework, Algorithm, and Convergence Guarantee はコメントを受け付けていません

Multi-Agent Context Learning Strategy for Interference-Aware Beam Allocation in mmWave Vehicular Communications

要約 ミリ波 (mmWave) は、チャネル帯域幅とネットワーク容量を向上させる … 続きを読む

カテゴリー: cs.LG, eess.SP | Multi-Agent Context Learning Strategy for Interference-Aware Beam Allocation in mmWave Vehicular Communications はコメントを受け付けていません

A Robust Quantile Huber Loss With Interpretable Parameter Adjustment In Distributional Reinforcement Learning

要約 分布強化学習 (RL) は、主に分位フーバー損失関数の最小化を介して分位値 … 続きを読む

カテゴリー: cs.LG, stat.ML | A Robust Quantile Huber Loss With Interpretable Parameter Adjustment In Distributional Reinforcement Learning はコメントを受け付けていません

Not all Minorities are Equal: Empty-Class-Aware Distillation for Heterogeneous Federated Learning

要約 データの異質性は、クライアント間のローカル データ分散の不均衡によって特徴 … 続きを読む

カテゴリー: cs.LG | Not all Minorities are Equal: Empty-Class-Aware Distillation for Heterogeneous Federated Learning はコメントを受け付けていません