Back to list
物理情報深層学習(PINNs)は深くなる必要があるか?Levenberg-Marquardt アルゴリズムを用いた浅い PINNs
Do physics-informed neural networks (PINNs) need to be deep? Shallow PINNs using the Levenberg-Marquardt algorithm
Translated: 2026/3/15 8:03:53
Japanese Translation
arXiv:2602.08515v1 発表 タイプ:クロース
要旨:本稿では、非線形偏微分方程式(PDE)の前進問題と逆問題の解決において、浅い物理情報深層学習(PINNs)の利用を調査する。PINNs を非線形システムと再構成することで、Levenberg-Marquardt(LM)アルゴリズムを用いてネットワークパラメータを効率的に最適化する。入力変数に関するニューラルネットワーク導関数の解析的表現を導出し、LM に必要なヤコビ行列の正確かつ効率的な計算を可能にする。本提案アプローチは、Burgers、Schrödinger、Allen-Cahn、そして 3 次元 Bratu 方程式を含むいくつかのベンチマーク問題でテストされた。数値結果は、LM が BFGS を収束速度、精度、最終的な損失値の面で有意に優れていることを示しており、これは 2 つの隠し層しかないという浅いネットワークアーキテクチャを使用する場合でも成り立つ。これらの発見は、幅広い PDE のクラスにおいて、効率的な 2 階最適化手法と組み合わせた浅い PINNs が、前進問題および逆問題に対して正確で計算機的に効率的な解決策を提供できることを示唆している。
Original Content
arXiv:2602.08515v1 Announce Type: cross
Abstract: This work investigates the use of shallow physics-informed neural networks (PINNs) for solving forward and inverse problems of nonlinear partial differential equations (PDEs). By reformulating PINNs as nonlinear systems, the Levenberg-Marquardt (LM) algorithm is employed to efficiently optimize the network parameters. Analytical expressions for the neural network derivatives with respect to the input variables are derived, enabling accurate and efficient computation of the Jacobian matrix required by LM. The proposed approach is tested on several benchmark problems, including the Burgers, Schr\"odinger, Allen-Cahn, and three-dimensional Bratu equations. Numerical results demonstrate that LM significantly outperforms BFGS in terms of convergence speed, accuracy, and final loss values, even when using shallow network architectures with only two hidden layers. These findings indicate that, for a wide class of PDEs, shallow PINNs combined with efficient second-order optimization methods can provide accurate and computationally efficient solutions for both forward and inverse problems.