Back to list
arxiv_cs_cv 2026年4月20日

アフィン不変性を持つ近傍演算子を学習する方法

Learning Affine-Equivariant Proximal Operators

Translated: 2026/4/20 10:47:33
affine-equivariantproximal-operatorlearned-proximal-networkneural-networksregularization

Japanese Translation

arXiv:2604.15556v1 発表 タイプ: クロス 要約:近傍演算子は、信号処理や機械学習を含む多様なアプリケーションにおいて、不適定な逆問題の解決などにおいて基盤的な役割を果たしています。最近の研究では、データ駆動型あるいは非凸の正則化器に対して正確な近傍値を計算するパラメトリックな関数である「学習型近傍ネットワーク(LPN)」が導入されました。しかし、多くのシナリオでは、これらの正則化器(および対応する近傍演算子)にシフト不変性とスケール不変性を追加する構造を含めることが重要です。本稿では、シフトとスケーリングに対して不変であることを証明し、かつ正確な近傍演算子を計算する、ニューラルネットワークでパラメータ化された関数をどのように得られるかを示します。本稿は、アフィン不変性を持つ学習型近傍ネットワーク(AE-LPN)と呼称します。私たちは、合成的または建設的な例で、そしてオウチフ(訓練分布外の)設定でのノイズ除去を用いた実データを通じて結果を実証しました。我々の不変学習型近傍演算子は、訓練分布よりもはるかに高いノイズ分布とアフィンシフトに対する耐性を持ち、学習型近傍演算子の実用的利便性を改善します。

Original Content

arXiv:2604.15556v1 Announce Type: cross Abstract: Proximal operators are fundamental across many applications in signal processing and machine learning, including solving ill-posed inverse problems. Recent work has introduced Learned Proximal Networks (LPNs), providing parametric functions that compute exact proximals for data-driven and potentially non-convex regularizers. However, in many settings it is important to include additional structure to these regularizers--and their corresponding proximals--such as shift and scale equivariance. In this work, we show how to obtain learned functions parametrized by neural networks that provably compute exact proximal operators while being equivariant to shifts and scaling, which we dub Affine-Equivariant Learned Proximal Networks (AE-LPNs). We demonstrate our results on synthetic, constructive examples, and then on real data via denoising in out-of-distribution settings. Our equivariant learned proximals enhance robustness to noise distributions and affine shifts far beyond training distributions, improving the practical utility of learned proximal operators