Back to list
物理導向の次元削減による、剛性微分 - 代數式の操作学習におけるシミュレーションフリーなアプローチ
Physics-Guided Dimension Reduction for Simulation-Free Operator Learning of Stiff Differential--Algebraic Systems
Translated: 2026/4/24 19:55:02
Japanese Translation
arXiv:2604.19930v1 発表タイプ:新しい
要約:剛性微分 - 代數式(DAE)のためのニューラル代替物(surrogate)は、2 つの主要な課題に直面しています:柔軟な制約手法は代數式的残差を残すことがあり、それが剛性の増幅により大規模な誤差を生み出し、一方、堅固な制約手法は高コストな剛性積分器からの軌跡データが必要となります。本研究では、1 つの微分可能なソルブにおいて代數式の整合性と準定常状態の削減を強いる拡張ニュートン暗黙層を導入します。物理情報付きの DeepONet から得られた遅い状態の予測に基づき、提案された層は高速な状態と代數式的な状態を復元し、各時間窓内で剛性の増幅経路を除去し、出力次元を遅い状態のみへと削減します。暗黙関数定理を用いて導出された勾配は、罰則ベースの手法に欠如する剛性スケーリングした結合項を捉えます。级段暗黙層はこのフレームワークを複数のコンポーネントを持つシステムへ拡張し、実証可能な収束性をもたらします。グリッド形成インバータ DAE(21 状態)における提案手法(7 出力、1.42 パーセントの誤差)は、罰則手法(39.3 パーセント)、標準的なニュートン手法(57.0 パーセント)、および収束しない拡張ラグラジュニアやフィードバック線形化基準よりもはるかに優れた性能を示しました。独立してトレーニングされた 2 つのモデルはトレーニングの再実行なしに 44 状態のシステムを構成し、0.72 パーセントから 1.16 パーセントの誤差と代數式的残差ゼロを実現します。コンフォーマル予測はさらに、分布内での 90 パーセントのカバレッジを提供し、自動的な分布外検出を可能にします。
Original Content
arXiv:2604.19930v1 Announce Type: new
Abstract: Neural surrogates for stiff differential-algebraic equations (DAEs) face two key challenges: soft-constraint methods leave algebraic residuals that stiffness amplifies into large errors, while hard-constraint methods require trajectory data from computationally expensive stiff integrators. We introduce an extended Newton implicit layer that enforces algebraic consistency and quasi-steady-state reduction within a single differentiable solve. Given slow-state predictions from a physics-informed DeepONet, the proposed layer recovers fast and algebraic states, eliminates the stiffness-amplification pathway within each time window, and reduces the output dimension to the slow states alone. Gradients derived via the implicit function theorem capture a stiffness-scaled coupling term that is absent in penalty-based approaches. Cascaded implicit layers further extend the framework to multi-component systems with provable convergence. On a grid-forming inverter DAE (21 states), the proposed method (7 outputs, 1.42 percent error) significantly outperforms penalty methods (39.3 percent), standard Newton approaches (57.0 percent), and augmented Lagrangian or feedback linearization baselines, which fail to converge. Two independently trained models compose into a 44-state system without retraining, achieving 0.72 to 1.16 percent error with zero algebraic residual. Conformal prediction further provides 90 percent coverage in-distribution and enables automatic out-of-distribution detection.