Back to list
自動アンロール近隣勾配降法:解釈可能な波形最適化のための AuToML アプローチ
Auto-Unrolled Proximal Gradient Descent: An AutoML Approach to Interpretable Waveform Optimization
Translated: 2026/4/24 20:10:18
Japanese Translation
本文書: arXiv:2603.17478v2 型: 差し替え
要約: 本研究は、無線ビーム形成と波形の最適化に、自動機械学習 (AutoML) とモデルベースの深層アンロール (DU) を組み合わせることを探求します。我々は、反復的な近隣勾配降法 (PGD) アルゴリズムを深層ニューラルネットワークに変換し、各層のパラメータを事前設定から学習可能にします。さらに、近隣投影の前に学習可能な線形勾配変換を行うハイブリッド層を組み込むことで、構造を強化します。AutoGluon と、ネットワーク深さ、ステップサイズ初期化、最適化器、学習率スケジューラ、層タイプ、勾配後の活性化関数を含む拡大された検索空間にわたるハイパーパラメータ最適化 (HPO) ためにツリー構造のパルゼン推定器 (TPE) を利用することで、提案する自動アンロール PGD (Auto-PGD) は、従来の 200 反復の PGD ソルバーのスペクトル効率の 98.8% を、5 のアンロール層と 100 のトレーニングサンプルだけで達成します。我々は、トレーニングと評価で一貫性のあるパフォーマンスを確保するために勾配正規化の問題に対処し、透明性のツールとして各層の総レートログを示します。これらの貢献は、従来のブラックボックス構造と比較して高い解釈可能性を維持しながら、必要なトレーニングデータ量と推論コストの顕著な削減を強調します。
Original Content
arXiv:2603.17478v2 Announce Type: replace
Abstract: This study explores the combination of automated machine learning (AutoML) with model-based deep unfolding (DU) for optimizing wireless beamforming and waveforms. We convert the iterative proximal gradient descent (PGD) algorithm into a deep neural network, wherein the parameters of each layer are learned instead of being predetermined. Additionally, we enhance the architecture by incorporating a hybrid layer that performs a learnable linear gradient transformation prior to the proximal projection. By utilizing AutoGluon with a tree-structured parzen estimator (TPE) for hyperparameter optimization (HPO) across an expanded search space, which includes network depth, step-size initialization, optimizer, learning rate scheduler, layer type, and post-gradient activation, the proposed auto-unrolled PGD (Auto-PGD) achieves 98.8% of the spectral efficiency of a traditional 200-iteration PGD solver using only five unrolled layers, while requiring only 100 training samples. We also address a gradient normalization issue to ensure consistent performance during training and evaluation, and we illustrate per-layer sum-rate logging as a tool for transparency. These contributions highlight a notable reduction in the amount of training data and inference cost required, while maintaining high interpretability compared to conventional black-box architectures.