Back to list
神経オジュデは複雑なネットワークで一般化するのか
When do neural ordinary differential equations generalize on complex networks?
Translated: 2026/3/15 8:10:19
Japanese Translation
arXiv:2602.08980v1 Announce Type: cross
要約:神経微分方程式(neural ODEs)は時系列データから動的システムを効果的に学習できますが、グラフ構造化データにおけるそれらの挙動は、特にトレーニング時に遭遇していない異なるサイズや構造のグラフに適用された際、まだよく理解されていません。ここでは、Barabási-Barzéli形式に従うベクトル場を持つ神経オジュデ(nODEs)を、5 つの一般的なグラフ上の動的システムから合成されたデータで訓練しました。$\bS\^1$-モデルを用いて現実的で調整可能な構造を持つグラフを生成し、nODEs がグラフサイズと特性を超えて一般化する能力を決定する主要な要因は、次数の異質性と動的システムのタイプであることを発見しました。これは、固定点の捕捉能力と欠落データがある状況下でのパフォーマンス維持にまで及んでいます。平均クラスタリングは nODEs のパフォーマンスの決定に二次的な役割を果たします。私たちの研究成果は、nODEs が複雑なシステムの理解のための強力なアプローチであることを示しつつ、現実的なグラフにおける次数の異質性とクラスタリングから生じる課題を強調しています。
Original Content
arXiv:2602.08980v1 Announce Type: cross
Abstract: Neural ordinary differential equations (neural ODEs) can effectively learn dynamical systems from time series data, but their behavior on graph-structured data remains poorly understood, especially when applied to graphs with different size or structure than encountered during training. We study neural ODEs ($\mathtt{nODE}$s) with vector fields following the Barab\'asi-Barzel form, trained on synthetic data from five common dynamical systems on graphs. Using the $\mathbb{S}^1$-model to generate graphs with realistic and tunable structure, we find that degree heterogeneity and the type of dynamical system are the primary factors in determining $\mathtt{nODE}$s' ability to generalize across graph sizes and properties. This extends to $\mathtt{nODE}$s' ability to capture fixed points and maintain performance amid missing data. Average clustering plays a secondary role in determining $\mathtt{nODE}$ performance. Our findings highlight $\mathtt{nODE}$s as a powerful approach to understanding complex systems but underscore challenges emerging from degree heterogeneity and clustering in realistic graphs.