Back to list
深層物質ネットワークの体系的な性能評価:マルチスケール物質モデル化に向けた多様体のモデリング
Systematic Performance Assessment of Deep Material Networks for Multiscale Material Modeling
Translated: 2026/3/15 13:04:28
Japanese Translation
arXiv:2602.07192v1 Announce Type: new
要約: 深層物質ネットワーク (DMN) は、微視力学的原理をアーキテクチャに埋め込む構造保持型の、機械的機械学習モデルであり、複雑な微視構造のマルチスケールモデル化における強力な外挿能力と大きな加速可能性をもたらします。これらのモデルの主要な利点は、線形弾性データのみでトレーニングされ、それがオンライン予測において非線形塑性領域へ一般化できる点にあります。これらのモデルが広範囲に採用されているにもかかわらず、オフラインからオンラインまでのパイプライン全体に対する体系的な性能評価は限定的です。本研究では、予測精度、計算効率、トレーニング頑健性に関し、DMN を包括的に対比評価を行います。オフライントレーニングの選択、すなわち初期化、バッチサイズ、トレーニングデータサイズ、活性化正規化が、オンラインの一般化性能と不確実性に及ぼす影響を調査します。結果は、トレーニングデータサイズが増加するにつれて予測誤差と分散が減少することを示し、初期化とバッチサイズはモデル性能に大きな影響を与えることを示唆します。さらに、活性化正規化はネットワーク複雑性を制御し、したがって一般化性能を決定する上で重要な役割を果たすことが示されました。元の DMN compared に、回転自由の相互作用ベースの物質ネットワーク (IMN) 形式は、オフライントレーニングにおいて 3.4 倍〜4.7 倍の高速化を達成しつつ、比較可能なオンライン予測精度と計算効率を維持します。これらの知見は、構造保持型物質ネットワークにおけるモデル表現力と効率の間の重要なトレードオフを明確にし、マルチスケール物質モデル化における実用的な導入ガイドを提供します。
Original Content
arXiv:2602.07192v1 Announce Type: new
Abstract: Deep Material Networks (DMNs) are structure-preserving, mechanistic machine learning models that embed micromechanical principles into their architectures, enabling strong extrapolation capabilities and significant potential to accelerate multiscale modeling of complex microstructures. A key advantage of these models is that they can be trained exclusively on linear elastic data and then generalized to nonlinear inelastic regimes during online prediction. Despite their growing adoption, systematic evaluations of their performance across the full offline-online pipeline remain limited. This work presents a comprehensive comparative assessment of DMNs with respect to prediction accuracy, computational efficiency, and training robustness. We investigate the effects of offline training choices, including initialization, batch size, training data size, and activation regularization on online generalization performance and uncertainty. The results demonstrate that both prediction error and variance decrease with increasing training data size, while initialization and batch size can significantly influence model performance. Moreover, activation regularization is shown to play a critical role in controlling network complexity and therefore generalization performance. Compared with the original DMN, the rotation-free Interaction-based Material Network (IMN) formulation achieves a 3.4x - 4.7x speed-up in offline training, while maintaining comparable online prediction accuracy and computational efficiency. These findings clarify key trade-offs between model expressivity and efficiency in structure-preserving material networks and provide practical guidance for their deployment in multiscale material modeling.