Reinforcement Learning of Adaptive Acquisition Policies for Inverse Problems

要約

高次元信号を取得する高価なプロセスを軽減する有望な方法は、限られた数の低次元測定値を取得し、信号に関する構造事前分布を利用して未確定逆問題を解くことです。
この論文では、測定回数をさらに節約するための適応取得スキームに焦点を当てます。
この目的を達成するために、我々は、より少ない測定値を取得することで基礎となる信号をより適切に回復するために測定値を順次収集する強化学習ベースのアプローチを提案します。
私たちのアプローチは、連続アクション空間を伴う一般逆問題に適用され、回復アルゴリズムを共同で学習します。
理論分析から得られた洞察を使用して、変分定式化を使用した方法の確率的設計も提供します。
複数のデータセットと 2 つの測定空間 (ガウス、ラドン) でアプローチを評価します。
私たちの結果は、低取得期間設定における適応戦略の利点を裏付けています。

要約(オリジナル)

A promising way to mitigate the expensive process of obtaining a high-dimensional signal is to acquire a limited number of low-dimensional measurements and solve an under-determined inverse problem by utilizing the structural prior about the signal. In this paper, we focus on adaptive acquisition schemes to save further the number of measurements. To this end, we propose a reinforcement learning-based approach that sequentially collects measurements to better recover the underlying signal by acquiring fewer measurements. Our approach applies to general inverse problems with continuous action spaces and jointly learns the recovery algorithm. Using insights obtained from theoretical analysis, we also provide a probabilistic design for our methods using variational formulation. We evaluate our approach on multiple datasets and with two measurement spaces (Gaussian, Radon). Our results confirm the benefits of adaptive strategies in low-acquisition horizon settings.

arxiv情報

著者 Gianluigi Silvestri,Fabio Valerio Massoli,Tribhuvanesh Orekondy,Afshin Abdi,Arash Behboodi
発行日 2024-07-10 16:12:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP パーマリンク