Efficient and Sharp Off-Policy Learning under Unobserved Confounding

要約

観察されていない交絡を伴うシナリオで、パーソナライズされたオフポリシー学習のための新しい方法を開発します。
それにより、標準的なポリシー学習の重要な制限に対処します。標準的なポリシー学習は、非強制性を想定しています。つまり、観察されていない要因が治療の割り当てと結果の両方に影響しないことを意味します。
ただし、この仮定はしばしば侵害されています。そのため、標準的なポリシー学習は偏った推定値を生み出し、したがって有害なポリシーにつながります。
この制限に対処するために、因果感度分析を採用し、観察されていない交絡の下での値関数の鋭いバウンドの統計的に効率的な推定器を導き出します。
推定量には3つの利点があります。(1)既存の作業とは異なり、推定器は逆傾向の加重結果に基づいて不安定なミニマックス最適化を回避します。
(2)推定器は統計的に効率的です。
(3)推定器が最適な交絡 – 強いポリシーにつながることを証明します。
最後に、私たちの理論は、観察されていない交絡の下で、つまり標準的なケアなどのベースラインポリシーが利用可能な場合、政策改善の関連するタスクに拡張します。
合成および実世界のデータを使用した実験で、この方法は単純なプラグインアプローチと既存のベースラインよりも優れていることを示しています。
私たちの方法は、ヘルスケアや公共政策など、観察されていない交絡が問題になる可能性がある意思決定に非常に関連しています。

要約(オリジナル)

We develop a novel method for personalized off-policy learning in scenarios with unobserved confounding. Thereby, we address a key limitation of standard policy learning: standard policy learning assumes unconfoundedness, meaning that no unobserved factors influence both treatment assignment and outcomes. However, this assumption is often violated, because of which standard policy learning produces biased estimates and thus leads to policies that can be harmful. To address this limitation, we employ causal sensitivity analysis and derive a statistically efficient estimator for a sharp bound on the value function under unobserved confounding. Our estimator has three advantages: (1) Unlike existing works, our estimator avoids unstable minimax optimization based on inverse propensity weighted outcomes. (2) Our estimator is statistically efficient. (3) We prove that our estimator leads to the optimal confounding-robust policy. Finally, we extend our theory to the related task of policy improvement under unobserved confounding, i.e., when a baseline policy such as the standard of care is available. We show in experiments with synthetic and real-world data that our method outperforms simple plug-in approaches and existing baselines. Our method is highly relevant for decision-making where unobserved confounding can be problematic, such as in healthcare and public policy.

arxiv情報

著者 Konstantin Hess,Dennis Frauen,Valentyn Melnychuk,Stefan Feuerriegel
発行日 2025-02-18 16:42:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Efficient and Sharp Off-Policy Learning under Unobserved Confounding はコメントを受け付けていません

Fragility-aware Classification for Understanding Risk and Improving Generalization

要約

分類モデルは、医療診断、ユーザープロファイリング、推奨システム、デフォルト検出などのデータ駆動型の意思決定アプリケーションで重要な役割を果たします。
精度などの従来のパフォーマンスメトリックは、全体的なエラー率に焦点を当てていますが、誤った予測の信頼を考慮していないため、自信のある誤解のリスクを見落としています。
このリスクは、医療診断や自律運転などの費用に敏感で安全性が高いドメインで特に重要です。
この問題に対処するために、自信のある誤判断の尾のリスクを明示的にキャプチャすることにより、リスク回避の観点から分類パフォーマンスを評価する新しいメトリックである脆弱性指数(FI)を導入します。
一般化可能性を高めるために、データの不確実性を組み込んだ堅牢な満足(RS)フレームワーク内でFIを定義します。
さらに、一般的な損失関数の扱いやすさを維持しながら、FIを最適化するモデルトレーニングアプローチを開発します。
具体的には、エントロピーの喪失、ヒンジ型損失、リプシッツ損失のための正確な再定式化を導き出し、深い学習モデルへのアプローチを拡張します。
合成実験と現実世界の医療診断タスクを通じて、FIは誤判断リスクを効果的に特定し、FIベースのトレーニングがモデルの堅牢性と一般化可能性を改善することを実証します。
最後に、フレームワークを深いニューラルネットワークトレーニングに拡張し、ディープラーニングモデルの強化における有効性をさらに検証します。

要約(オリジナル)

Classification models play a critical role in data-driven decision-making applications such as medical diagnosis, user profiling, recommendation systems, and default detection. Traditional performance metrics, such as accuracy, focus on overall error rates but fail to account for the confidence of incorrect predictions, thereby overlooking the risk of confident misjudgments. This risk is particularly significant in cost-sensitive and safety-critical domains like medical diagnosis and autonomous driving, where overconfident false predictions may cause severe consequences. To address this issue, we introduce the Fragility Index (FI), a novel metric that evaluates classification performance from a risk-averse perspective by explicitly capturing the tail risk of confident misjudgments. To enhance generalizability, we define FI within the robust satisficing (RS) framework, incorporating data uncertainty. We further develop a model training approach that optimizes FI while maintaining tractability for common loss functions. Specifically, we derive exact reformulations for cross-entropy loss, hinge-type loss, and Lipschitz loss, and extend the approach to deep learning models. Through synthetic experiments and real-world medical diagnosis tasks, we demonstrate that FI effectively identifies misjudgment risk and FI-based training improves model robustness and generalizability. Finally, we extend our framework to deep neural network training, further validating its effectiveness in enhancing deep learning models.

arxiv情報

著者 Chen Yang,Zheng Cui,Daniel Zhuoyu Long,Jin Qi,Ruohan Zhan
発行日 2025-02-18 16:44:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC | Fragility-aware Classification for Understanding Risk and Improving Generalization はコメントを受け付けていません

$k$-Graph: A Graph Embedding for Interpretable Time Series Clustering

要約

時系列のクラスタリングは、ドメイン全体の多様なアプリケーションで大きな課題をもたらします。
既存のソリューションの顕著な欠点は、限られた解釈可能性にあり、多くの場合、ユーザーにCentroidを提示することに限定されます。
このギャップに対処する際、私たちの作品は、時系列クラスタリングで解釈可能性を増強するために明示的に作成された監視されていない方法である$ K $ -Graphを提示します。
時系列サブシーケンスのグラフ表現を活用すると、$ K $ -GRAPHは、異なるサブシーケンス長に基づいて複数のグラフ表現を構築します。
この機能は、ユーザーがサブシーケンスの長さを事前に決定することを要求することなく、さまざまな長さの時系列に対応します。
私たちの実験結果は、$ K $ -Graphが現在の最先端の時系列クラスタリングアルゴリズムを精度で上回ると同時に、クラスタリング結果の意味のある説明と解釈をユーザーに提供することを明らかにしています。

要約(オリジナル)

Time series clustering poses a significant challenge with diverse applications across domains. A prominent drawback of existing solutions lies in their limited interpretability, often confined to presenting users with centroids. In addressing this gap, our work presents $k$-Graph, an unsupervised method explicitly crafted to augment interpretability in time series clustering. Leveraging a graph representation of time series subsequences, $k$-Graph constructs multiple graph representations based on different subsequence lengths. This feature accommodates variable-length time series without requiring users to predetermine subsequence lengths. Our experimental results reveal that $k$-Graph outperforms current state-of-the-art time series clustering algorithms in accuracy, while providing users with meaningful explanations and interpretations of the clustering outcomes.

arxiv情報

著者 Paul Boniol,Donato Tiano,Angela Bonifati,Themis Palpanas
発行日 2025-02-18 16:59:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | $k$-Graph: A Graph Embedding for Interpretable Time Series Clustering はコメントを受け付けていません

Benchmarking MedMNIST dataset on real quantum hardware

要約

量子機械学習(QML)は、量子システムの計算機能を活用して複雑な分類タスクを解決する有望なドメインとして浮上しています。
この作業では、実用的な量子モデル(古典的なニューラルネットワークなし)の実現可能性とパフォーマンスを評価するために、MedMnist-Quit Real IBM Quantum Hardwareの医療画像データセットの多様なコレクションをベンチマークすることにより、最初の包括的なQML研究を提示します。
アプリケーション。
この研究では、デバイス認識量子回路、エラー抑制、医療画像分類のための緩和などの量子コンピューティングの最近の進歩を調査します。
私たちの方法論は、3つの段階で構成されています:前処理、ノイズ耐性およびハードウェア効率の高い量子回路の生成、古典的なハードウェア上の量子回路の最適化/トレーニング、および実際のIBM量子ハードウェアの推論。
まず、すべての入力画像を前処理段階で処理して、量子ハードウェアの制限により空間寸法を減らします。
医療画像分類のための複雑なパターンを学習するために表現できるバックエンドプロパティを使用して、ハードウェア効率の高い量子回路を生成します。
QMLモデルの古典的な最適化の後、実際の量子ハードウェアの推論を実行します。
また、QMLワークフローに、動的デカップリング(DD)、ゲートの回転、マトリックスフリーの測定緩和(M3)など、QMLワークフローに高度なエラー抑制と緩和手法を組み込み、ノイズの影響を軽減し、分類パフォーマンスを改善します。
実験結果は、医療イメージングの量子コンピューティングの可能性を示し、ヘルスケアに適用されるQMLの将来の進歩のベンチマークを確立します。

要約(オリジナル)

Quantum machine learning (QML) has emerged as a promising domain to leverage the computational capabilities of quantum systems to solve complex classification tasks. In this work, we present first comprehensive QML study by benchmarking the MedMNIST-a diverse collection of medical imaging datasets on a 127-qubit real IBM quantum hardware, to evaluate the feasibility and performance of quantum models (without any classical neural networks) in practical applications. This study explore recent advancements in quantum computing such as device-aware quantum circuits, error suppression and mitigation for medical image classification. Our methodology comprised of three stages: preprocessing, generation of noise-resilient and hardware-efficient quantum circuits, optimizing/training of quantum circuits on classical hardware, and inference on real IBM quantum hardware. Firstly, we process all input images in the preprocessing stage to reduce the spatial dimension due to the quantum hardware limitations. We generate hardware-efficient quantum circuits using backend properties expressible to learn complex patterns for medical image classification. After classical optimization of QML models, we perform the inference on real quantum hardware. We also incorporates advanced error suppression and mitigation techniques in our QML workflow including dynamical decoupling (DD), gate twirling, and matrix-free measurement mitigation (M3) to mitigate the effects of noise and improve classification performance. The experimental results showcase the potential of quantum computing for medical imaging and establishes a benchmark for future advancements in QML applied to healthcare.

arxiv情報

著者 Gurinder Singh,Hongni Jin,Kenneth M. Merz Jr
発行日 2025-02-18 17:02:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, quant-ph | Benchmarking MedMNIST dataset on real quantum hardware はコメントを受け付けていません

A Neural Difference-of-Entropies Estimator for Mutual Information

要約

特定のモデリング仮定のないランダム量の依存性の重要な尺度である相互情報(MI)の推定は、高次元での困難な問題です。
正規化フローを使用したパラメーター化条件密度に基づいた新しい相互情報推定器を提案します。これは、近年人気を博している深い生成モデルです。
この推定器は、ブロックの自己回帰構造を活用して、標準ベンチマークタスクでのバイアス分散トレードオフの改善を実現します。

要約(オリジナル)

Estimating Mutual Information (MI), a key measure of dependence of random quantities without specific modelling assumptions, is a challenging problem in high dimensions. We propose a novel mutual information estimator based on parametrizing conditional densities using normalizing flows, a deep generative model that has gained popularity in recent years. This estimator leverages a block autoregressive structure to achieve improved bias-variance trade-offs on standard benchmark tasks.

arxiv情報

著者 Haoran Ni,Martin Lotz
発行日 2025-02-18 17:48:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IT, cs.LG, math.IT, stat.ML | A Neural Difference-of-Entropies Estimator for Mutual Information はコメントを受け付けていません

tn4ml: Tensor Network Training and Customization for Machine Learning

要約

テンソルネットワークは、基礎科学の機械学習の課題に対処するためのニューラルネットワークの顕著な代替品として浮上し、実際の問題への応用の道を開いています。
このペーパーでは、テンソルネットワークを機械学習タスクの最適化パイプラインにシームレスに統合するように設計された新しいライブラリであるTN4MLを紹介します。
既存の機械学習フレームワークに触発されたこのライブラリは、多様な最適化戦略を使用して、データの埋め込み、目的関数定義、モデルトレーニング用のモジュールを備えたユーザーフレンドリーな構造を提供します。
2つの例を使用してその汎用性を示します。表形式データに関する監視された学習と、画像データセットでの監視されていない学習です。
さらに、テンソルネットワークの機械学習パイプラインのパーツをカスタマイズすることがパフォーマンスメトリックにどのように影響するかを分析します。

要約(オリジナル)

Tensor Networks have emerged as a prominent alternative to neural networks for addressing Machine Learning challenges in foundational sciences, paving the way for their applications to real-life problems. This paper introduces tn4ml, a novel library designed to seamlessly integrate Tensor Networks into optimization pipelines for Machine Learning tasks. Inspired by existing Machine Learning frameworks, the library offers a user-friendly structure with modules for data embedding, objective function definition, and model training using diverse optimization strategies. We demonstrate its versatility through two examples: supervised learning on tabular data and unsupervised learning on an image dataset. Additionally, we analyze how customizing the parts of the Machine Learning pipeline for Tensor Networks influences performance metrics.

arxiv情報

著者 Ema Puljak,Sergio Sanchez-Ramirez,Sergi Masot-Llima,Jofre Vallès-Muns,Artur Garcia-Saez,Maurizio Pierini
発行日 2025-02-18 17:57:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.MS, quant-ph | tn4ml: Tensor Network Training and Customization for Machine Learning はコメントを受け付けていません

Enhanced uncertainty quantification variational autoencoders for the solution of Bayesian inverse problems

要約

他の用途の中でも、ニューラルネットワークは、リアルタイムで決定論的およびベイジアンの逆の問題を解決するための強力なツールです。
ベイジアンフレームワークでは、特殊なタイプのニューラルネットワークである変分自動エンコーダーは、モデルパラメーターの推定と、リアルタイムの逆不確実性の定量化を実行できる観測データに基づいてその分布を可能にします。
この作業では、ベイジアンの逆問題のための変分自動エンコーダーを訓練するための新しい損失関数を提案することにより、既存の研究[Goh、H。et al。、Proceedings of Machine Learning Research、2022]に基づいています。
フォワードマップがアフィンである場合、モデルパラメーターの事後分布に変分自動エンコーダーの潜在状態の収束の理論的証明を提供します。
数値テストを通じてこの理論的結果を検証し、提案されている変動自動エンコーダーを文献の既存の自動エンコーダーと比較します。
最後に、ラプラス方程式で提案されている変異オートエンコーダーをテストします。

要約(オリジナル)

Among other uses, neural networks are a powerful tool for solving deterministic and Bayesian inverse problems in real-time. In the Bayesian framework, variational autoencoders, a specialized type of neural network, enable the estimation of model parameters and their distribution based on observational data allowing to perform real-time inverse uncertainty quantification. In this work, we build upon existing research [Goh, H. et al., Proceedings of Machine Learning Research, 2022] by proposing a novel loss function to train variational autoencoders for Bayesian inverse problems. When the forward map is affine, we provide a theoretical proof of the convergence of the latent states of variational autoencoders to the posterior distribution of the model parameters. We validate this theoretical result through numerical tests and we compare the proposed variational autoencoder with the existing one in the literature. Finally, we test the proposed variational autoencoder on the Laplace equation.

arxiv情報

著者 Andrea Tonini,Luca Dede’
発行日 2025-02-18 18:17:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA | Enhanced uncertainty quantification variational autoencoders for the solution of Bayesian inverse problems はコメントを受け付けていません

MLPs at the EOC: Dynamics of Feature Learning

要約

カーネルレジームの無限に広いニューラルネットワークはランダムな特徴モデルであるため、現代の深い学習の成功は豊かな体制にあります。そこでは、満足のいく理論では、勾配降下の収束だけでなく、途中で特徴の学習を説明する必要があります。
このような理論は、安定性(EOS)やカタパルトメカニズムなどの実践者によって観察される現象も対象とする必要があります。
限界における実質的に関連する理論の場合、ニューラルネットワークのパラメーター化は、幅と深さが拡大されるため、制限動作を効率的に再現する必要があります。
幅ワイズスケーリングはほとんど沈殿しますが、深さのスケーリングは、カオスの端(EOC)による初期化時にのみ解決されます。
トレーニング中、スケールアップの深さは、学習率を反比例させるか、残留接続を追加することによって行われます。
$(1)$ $ $が正規化された更新パラメーター化($ \ nu $ p)を提案して、事前活性化の正規化された進化を誘導する隠されたレイヤーサイズを拡大することによりこの問題を解決することを提案します。
新規および累積パラメーターの更新と$(3)$ $(カタパルトフェーズを無期限に延長できるジオメトリ認識学習率スケジュール)。
私たちは仮説をサポートし、経験的証拠による$ \ nu $ pの有用性と学習率のスケジュールを実証します。

要約(オリジナル)

Since infinitely wide neural networks in the kernel regime are random feature models, the success of contemporary deep learning lies in the rich regime, where a satisfying theory should explain not only the convergence of gradient descent but the learning of features along the way. Such a theory should also cover phenomena observed by practicioners including the Edge of Stability (EOS) and the catapult mechanism. For a practically relevant theory in the limit, neural network parameterizations have to efficiently reproduce limiting behavior as width and depth are scaled up. While widthwise scaling is mostly settled, depthwise scaling is solved only at initialization by the Edge of Chaos (EOC). During training, scaling up depth is either done by inversely scaling the learning rate or adding residual connections. We propose $(1)$ the Normalized Update Parameterization ($\nu$P) to solve this issue by growing hidden layer sizes depthwise inducing the regularized evolution of preactivations, $(2)$ a hypothetical explanation for feature learning via the cosine of new and cumulative parameter updates and $(3)$ a geometry-aware learning rate schedule that is able to prolong the catapult phase indefinitely. We support our hypotheses and demonstrate the usefulness of $\nu$P and the learning rate schedule by empirical evidence.

arxiv情報

著者 Dávid Terjék
発行日 2025-02-18 18:23:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T07, cs.LG | MLPs at the EOC: Dynamics of Feature Learning はコメントを受け付けていません

Constrained Online Convex Optimization with Polyak Feasibility Steps

要約

この作業では、固定制約関数$ g:\ mathbb {r}^d \ rightarrow \ mathbb {r} $を使用して、オンライン凸の最適化を研究します。
この問題に関する以前の研究は、$ o(\ sqrt {t})$後悔と累積制約満足度$ \ sum_ {t = 1}^{t} g(x_t)\ leq 0 $を示していますが、制約値とアクセスのみにアクセスします。
再生アクション$ g(x_t)、\ partial g(x_t)$でのサブグラディエント。
同じ制約情報を使用して、いつでも制約満足度$ g(x_t)\ leq 0 \ \ forall t \ in [t] $のより強力な保証を示し、$ o(\ sqrt {t})$後悔保証を一致させます。
これらの貢献は、後悔を犠牲にすることなく、制約の満足度を確保するためにPolyAKの実現可能性の手順を使用するというアプローチのおかげです。
具体的には、オンライン勾配降下の各ステップの後、私たちのアルゴリズムは、有名なPolyAKステップサイズに従って段階サイズが選択される制約関数にサブ勾配降下ステップを適用します。
さらに、数値実験でこのアプローチを検証します。

要約(オリジナル)

In this work, we study online convex optimization with a fixed constraint function $g : \mathbb{R}^d \rightarrow \mathbb{R}$. Prior work on this problem has shown $O(\sqrt{T})$ regret and cumulative constraint satisfaction $\sum_{t=1}^{T} g(x_t) \leq 0$, while only accessing the constraint value and subgradient at the played actions $g(x_t), \partial g(x_t)$. Using the same constraint information, we show a stronger guarantee of anytime constraint satisfaction $g(x_t) \leq 0 \ \forall t \in [T]$, and matching $O(\sqrt{T})$ regret guarantees. These contributions are thanks to our approach of using Polyak feasibility steps to ensure constraint satisfaction, without sacrificing regret. Specifically, after each step of online gradient descent, our algorithm applies a subgradient descent step on the constraint function where the step-size is chosen according to the celebrated Polyak step-size. We further validate this approach with numerical experiments.

arxiv情報

著者 Spencer Hutchinson,Mahnoosh Alizadeh
発行日 2025-02-18 18:26:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC | Constrained Online Convex Optimization with Polyak Feasibility Steps はコメントを受け付けていません

Exploring the Impact of Dataset Statistical Effect Size on Model Performance and Data Sample Size Sufficiency

要約

十分な量の高品質データを持つことは、効果的な機械学習モデルをトレーニングする重要なイネーブラーです。
モデルのパフォーマンスをトレーニングして評価する前に、データセットの妥当性を効果的に決定できることは、実験的な設計やデータ収集に従事する人にとって不可欠なツールです。
ただし、それが必要になっているにもかかわらず、データの十分性を前向きに評価する能力は、とらえどころのない能力のままです。
ここでは、基本的な記述統計的測定が、結果のモデルのトレーニングにおいてデータセットがどれほど効果的であるかを示すことができるかどうかをよりよく確認するために行われた2つの実験について報告します。
私たちの機能の効果サイズを活用するこの作業は、最初に効果サイズと結果のモデルパフォーマンスの間に相関が存在するかどうかを調査します(クラス間の区別の大きさが分類子の結果として生じる成功と相関することを理論化します)。
次に、効果サイズの大きさが学習速度の収束速度に影響を与えるかどうかを調査します(効果サイズが大きいほど、モデルがより迅速に収束することを示し、サンプルサイズが必要であることを示します)。
私たちの結果は、これが適切なサンプルサイズや投影モデルのパフォーマンスを決定するための効果的なヒューリスティックではないことを示しているようであり、したがって、データの妥当性をより前向きに評価するために追加の作業が必要であることを示しています。

要約(オリジナル)

Having a sufficient quantity of quality data is a critical enabler of training effective machine learning models. Being able to effectively determine the adequacy of a dataset prior to training and evaluating a model’s performance would be an essential tool for anyone engaged in experimental design or data collection. However, despite the need for it, the ability to prospectively assess data sufficiency remains an elusive capability. We report here on two experiments undertaken in an attempt to better ascertain whether or not basic descriptive statistical measures can be indicative of how effective a dataset will be at training a resulting model. Leveraging the effect size of our features, this work first explores whether or not a correlation exists between effect size, and resulting model performance (theorizing that the magnitude of the distinction between classes could correlate to a classifier’s resulting success). We then explore whether or not the magnitude of the effect size will impact the rate of convergence of our learning rate, (theorizing again that a greater effect size may indicate that the model will converge more rapidly, and with a smaller sample size needed). Our results appear to indicate that this is not an effective heuristic for determining adequate sample size or projecting model performance, and therefore that additional work is still needed to better prospectively assess adequacy of data.

arxiv情報

著者 Arya Hatamian,Lionel Levine,Haniyeh Ehsani Oskouie,Majid Sarrafzadeh
発行日 2025-02-18 18:39:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Exploring the Impact of Dataset Statistical Effect Size on Model Performance and Data Sample Size Sufficiency はコメントを受け付けていません