Back to list
arxiv_cs_lg 2026年4月24日

SPD 多辺形上の接束神経ネットワーク:2 次幾何学的表現学習

Sheaf Neural Networks on SPD Manifolds: Second-Order Geometric Representation Learning

Translated: 2026/4/24 19:58:14
sheaf-neural-networksspd-manifoldgraph-neural-networksgeometric-representation-learningmolecular-chemistry

Japanese Translation

arXiv:2604.20308v1 Announce Type: new 要旨:グラフニューラルネットワークは、ユークリッド空間の線形構造に根ざした 2 つの根本的な課題に直面している。(1) 現在のアーキテクチャは、方向や勾配などの幾何学をベクトルとして表現しているが、多くのタスクでは原子の向きが如何に共変するかのような方向間の関係性を捉えることができる行列値表現が必要である。これらの 2 次表現は、対称正定値行列 (SPD) の多辺形上の点を自然に捉える。(2) 標準的なメッセージパスはエッジ全体で共有変換を適用するが、接束神経ネットワークはエッジ固有の変換を通じてこれを解決している。しかし、既存の形式は依然としてベクトル空間に限定されており、行列値特徴を伝播できない。我々は、SPD 多辺形上で本質的に動作する最初の接束神経ネットワークを開発し、この両方の課題に対処した。我々の主要な洞察は、SPD 多辺形がリー群構造を有しており、これによりユークリッド空間に射影することなく、整合性の取れた接束演算子のアナログが存在するということである。理論的には、我々は SPD 値を持つ接束がユークリッド接束より厳密に表現力が豊富であることを証明した。SPD 値を持つ接束は、ベクトル値接束が表現できない一貫した構成 (全部分区) を持ち、それがそのまま豊かに学習された表現に直結する。実用上、我々の接束畳み込みは、有効なランク 1 方向入力を実ランク行列に転換し、局所的な幾何学的構造を符号化する。双方向アークチャitecture は 6/7 の MoleculeNet ベンチマークで State of the Art (SOTA) を達成し、接束フレームワークは一貫性のある深さ頑健性を提供する。

Original Content

arXiv:2604.20308v1 Announce Type: new Abstract: Graph neural networks face two fundamental challenges rooted in the linear structure of Euclidean vector spaces: (1) Current architectures represent geometry through vectors (directions, gradients), yet many tasks require matrix-valued representations that capture relationships between directions-such as how atomic orientations covary in a molecule. These second-order representations are naturally captured by points on the symmetric positive definite matrices (SPD) manifold; (2) Standard message passing applies shared transformations across edges. Sheaf neural networks address this via edge-specific transformations, but existing formulations remain confined to vector spaces and therefore cannot propagate matrix-valued features. We address both challenges by developing the first sheaf neural network operates natively on the SPD manifold. Our key insight is that the SPD manifold admits a Lie group structure, enabling well-posed analogs of sheaf operators without projecting to Euclidean space. Theoretically, we prove that SPD-valued sheaves are strictly more expressive than Euclidean sheaves: they admit consistent configurations (global sections) that vector-valued sheaves cannot represent, directly translating to richer learned representations. Empirically, our sheaf convolution transforms effectively rank-1 directional inputs into full-rank matrices encoding local geometric structure. Our dual-stream architecture achieves SOTA on 6/7 MoleculeNet benchmarks, with the sheaf framework providing consistent depth robustness.