Back to list
Korobov 関数向けの 2 次元 Deep ReLU CNN 近似:建設的的手法によるアプローチ
Two-Dimensional Deep ReLU CNN Approximation for Korobov Functions: A Constructive Approach
Translated: 2026/4/20 11:06:25
Japanese Translation
arXiv:2503.07976v2 発表型:replace-cross
要約:本稿では、2 次元 (2D) ディープ畳み込みニューラルネットワーク (CNN) の近似能力を調べる。Korobov 関数をベンチマークとしつつ、マルチチャンネルの畳み込み層(パディング付き)と ReLU アクティベーション層が組み合わされ、その後に全結合層を持つ 2D CNN に焦点を当てている。Korobov 関数の近似ために 2D CNN を構築する建設的なアプローチを提案し、構成されたネットワークの複雑性についての厳密な分析を提供する。私たちの成果は、2D CNN が連続的な重み選択モデルにおいて近似的に最適に近い近似速度を実現することを示し、次元数の呪いを大幅に緩和する。本作品は 2D CNN にとって堅牢な理論的基盤を提供し、函数近似におけるより広範な適用におけるその潜在力を明らかにする。
Original Content
arXiv:2503.07976v2 Announce Type: replace-cross
Abstract: This paper investigates approximation capabilities of two-dimensional (2D) deep convolutional neural networks (CNNs), with Korobov functions serving as a benchmark. We focus on 2D CNNs, comprising multi-channel convolutional layers with zero-padding and ReLU activations, followed by a fully connected layer. We propose a fully constructive approach for building 2D CNNs to approximate Korobov functions and provide a rigorous analysis of the complexity of the constructed networks. Our results demonstrate that 2D CNNs achieve near-optimal approximation rates under the continuous weight selection model, significantly alleviating the curse of dimensionality. This work provides a solid theoretical foundation for 2D CNNs and illustrates their potential for broader applications in function approximation.