要約
低ランクのテンソル完了(LRTC)問題は、部分的なサンプル情報からテンソルを再構築することを目的としています。これは、画像処理やコンピュータービジョンなどの幅広い実用的なアプリケーションに大きな関心を集めています。
LRTC問題に採用されているさまざまな手法の中で、テンソル特異値の取り扱いにおける有効性のために非凸弛緩方法が広く研究されており、これは正確なテンソル回復に重要です。
Minimax Concave Paenty(MCP)非凸緩和方法は、LRTCの問題に取り組むことで有望な結果を達成し、広く採用されましたが、顕著な制限を示しています。
この問題に対処し、回復パフォーマンスを強化するために、新しいMinimax $ P $ -TH ORDER凹のペナルティ(MPCP)関数が提案されています。
この新しい機能に基づいて、テンソル$ P $ -TH ORDER $ \ TAU $ NORMは、テンソルランク近似の非凸緩和として提案されているため、MPCPベースのLRTCモデルを確立します。
さらに、理論的収束保証は、提案された方法のために厳密に確立されています。
複数の実際のデータセットで実施された広範な数値実験は、提案された方法が視覚的品質と定量的メトリックの両方で最先端の方法を上回ることを示しています。
要約(オリジナル)
The low-rank tensor completion (LRTC) problem aims to reconstruct a tensor from partial sample information, which has attracted significant interest in a wide range of practical applications such as image processing and computer vision. Among the various techniques employed for the LRTC problem, non-convex relaxation methods have been widely studied for their effectiveness in handling tensor singular values, which are crucial for accurate tensor recovery. While the minimax concave penalty (MCP) non-convex relaxation method has achieved promising results in tackling the LRTC problem and gained widely adopted, it exhibits a notable limitation: insufficient penalty on small singular values during the singular value handling process, resulting in inefficient tensor recovery. To address this issue and enhance recovery performance, a novel minimax $p$-th order concave penalty (MPCP) function is proposed. Based on this novel function, a tensor $p$-th order $\tau$ norm is proposed as a non-convex relaxation for tensor rank approximation, thereby establishing an MPCP-based LRTC model. Furthermore, theoretical convergence guarantees are rigorously established for the proposed method. Extensive numerical experiments conducted on multiple real datasets demonstrate that the proposed method outperforms the state-of-the-art methods in both visual quality and quantitative metrics.
arxiv情報
著者 | Hongbing Zhang,Bing Zheng |
発行日 | 2025-06-06 16:43:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google