Back to list
arxiv_cs_lg 2026年2月10日

Backpropagation による Spectral Bias の回避:極端学習機を用いた高速な明示的ニューラル表現', 'contentJa': 'arXiv:2602.07603v1 Announce Type: new 抽象:明示的ニューラル表現(INR)の微細な詳細を捉えるためのトレーニングは、通常、反復的なバックプロパゲーションに頼り、目標が高度に不均一な周波数成分を持つ場合には、頻域バイアスによって妨げられることが多い。本稿では、反復的なバックプロパゲーションを必要としない ELM-INR を提案する。この手法は、領域を重なったサブ領域に分割し、各局所的な問題を極端学習機(ELM)を用いて閉じた形で適合させることで、反復的な最適化を安定した線形最小二乗解に置き換える。この設計により、局所予説を単位分割法を通じて結合することで、高速で数値的に堅牢な再構成が可能となる。固定された局所容量において近似的に困難となる箇所を理解するために、本手法を頻域 Barron 準則の視点から解析し、それは全球的な再構成誤差が高頻域複雑性を示す領域で支配的であることを明らかにした。この洞察に基づいて、容量制約下での再構成品質を向上させるための BEAM(適応的メッシュ補正戦略)を導入した。', 'tags': [

Escaping Spectral Bias without Backpropagation: Fast Implicit Neural Representations with Extreme Learning Machines

Translated: 2026/3/15 14:09:34

Original Content

arXiv:2602.07603v1 Announce Type: new Abstract: Training implicit neural representations (INRs) to capture fine-scale details typically relies on iterative backpropagation and is often hindered by spectral bias when the target exhibits highly non-uniform frequency content. We propose ELM-INR, a backpropagation-free INR that decomposes the domain into overlapping subdomains and fits each local problem using an Extreme Learning Machine (ELM) in closed form, replacing iterative optimization with stable linear least-squares solutions. This design yields fast and numerically robust reconstruction by combining local predictors through a partition of unity. To understand where approximation becomes difficult under fixed local capacity, we analyze the method from a spectral Barron norm perspective, which reveals that global reconstruction error is dominated by regions with high spectral complexity. Building on this insight, we introduce BEAM, an adaptive mesh refinement strategy that balances spectral complexity across subdomains to improve reconstruction quality in capacity-constrained regimes.