Back to list
背景表現向上化のための解耦された補完スペクトル空間学習: 超分光異常検出における新たなパラダイム
Decoupled Complementary Spectral-Spatial Learning for Background Representation Enhancement in Hyperspectral Anomaly Detection
Translated: 2026/3/15 15:00:57
Japanese Translation
最近登場した超分光異常検出手法は、一度背景データセットでトレーニングすることで、すべてのシーンに対して再学習やパラメータチューニングなしで普遍的にデプロイ可能であり、高い効率性と頑健性を示している。このパラダイムに基づき、本稿では背景表現向上のための「解耦された補完スペクトル空間学習フレームワーク」を提案する。本フレームワークは、以下の2段階のトレーニング戦略に従う:(1) スペクトル增强网络を逆蒸馏を通じてトレーニングし、頑健な背景スペクトル表現を取得する;(2) スペクトルブランチを教師として凍結し、空間パターンを捉えるために空間ブランチを補完的な学生(「反逆的学生」)としてトレーニングする。補完学習は、2つのブランチ間の表現冗長性を減らすデコレレーション目的と、学生が関連 없는ノイズを学習させないために再利用を阻止する再構築正則化を同時に適用することで達成される。トレーニング结束后、このフレームワークはスペクトルと空間の両方からの背景表現を統合的に向上させ、生成された強化された特徴量を使用して、再学習やパラメータチューニングなしに、試行時間デプロイに(例:リード - シャオリー(RX)検出器)をプラグイン可能となる。HAD100ベンチマークでの実験は、代表的なベースラインに対して計算コストが低く、大幅な性能向上を示し、提案した補完学習パラダイムの有効性を検証した。当社のコードは、https://github.com/xjpp2016/FERS に公開されている。
Original Content
arXiv:2510.18781v3 Announce Type: replace
Abstract: A recent class of hyperspectral anomaly detection methods can be trained once on background datasets and then deployed universally without per-scene retraining or parameter tuning, showing strong efficiency and robustness. Building upon this paradigm, we propose a decoupled complementary spectral--spatial learning framework for background representation enhancement. The framework follows a two-stage training strategy: (1) we first train a spectral enhancement network via reverse distillation to obtain robust background spectral representations; and (2) we then freeze the spectral branch as a teacher and train a spatial branch as a complementary student (the "rebellious student") to capture spatial patterns overlooked by the teacher. Complementary learning is achieved through decorrelation objectives that reduce representational redundancy between the two branches, together with reconstruction regularization to prevent the student from learning irrelevant noise. After training, the framework jointly enhances background representations from both spectral and spatial perspectives, and the resulting enhanced features can be plugged into parameter-free, training-free detectors (e.g., the Reed--Xiaoli (RX) detector) for test-time deployment without per-scene retraining or parameter tuning. Experiments on the HAD100 benchmark demonstrate substantial improvements over representative baselines with modest computational overhead, validating the effectiveness of the proposed complementary learning paradigm. Our code is publicly available at https://github.com/xjpp2016/FERS.