Back to list
arxiv_cs_lg 2026年2月10日

記述可能な解析 Calabi-Yau 度規に関する記号精馏:5 つの項の解析モデルはニューラル近似の精度を維持しつつ、3,000 分の 1 のパラメータで記述可能なモデルを生成する

Interpretable Analytic Calabi-Yau Metrics via Symbolic Distillation

Translated: 2026/3/15 14:48:32
symbolic-regressioncalabi-yauneural-networksstring-theoryscientific-ml

Japanese Translation

Calabi–Yau 多様体は弦理論において不可欠であるが、計算可能な度規を導出することは極めて困難である。本稿では、記号回帰技術がニューラル近似を簡潔かつ記述可能な式に精馏(distill)できることを示した。我々の提案した 5 項の表現は、ニューラルネットワークの精度 ($R^2 = 0.9994$) にほぼ一致する一方で、3,000 分の 1 の少ないパラメータで記述可能である。複数のシードを用いた検証により、幾何学的制約が重要な特徴選出を行い、特にべき級数と対称多項式を選出する一方、構造的多様性を許容することが確認された。得られた関数形式は、研究対象の moduli 範囲 ($\psi \in [0, 0.8]$) を通っても維持され、係数は滑らかに変動する。これらの傾向は、ローカルにトレーニングされた教師モデル($\psi \neq 0$ の場合 $\sigma \approx 8-9\%$)の精度範囲内で実証的な仮説と解釈できる。本研究の式は物理観測量、すなわち体積分積と Yukawa 結合を再現しており、記号精馏がこれまでブラックボックスネットワークのみによってアクセス可能な量のコンパクトで記述可能なモデルを復元できることを検証した。

Original Content

arXiv:2602.07834v1 Announce Type: new Abstract: Calabi--Yau manifolds are essential for string theory but require computing intractable metrics. Here we show that symbolic regression can distill neural approximations into simple, interpretable formulas. Our five-term expression matches neural accuracy ($R^2 = 0.9994$) with 3,000-fold fewer parameters. Multi-seed validation confirms that geometric constraints select essential features, specifically power sums and symmetric polynomials, while permitting structural diversity. The functional form can be maintained across the studied moduli range ($\psi \in [0, 0.8]$) with coefficients varying smoothly; we interpret these trends as empirical hypotheses within the accuracy regime of the locally-trained teachers ($\sigma \approx 8-9\%$ at $\psi \neq 0$). The formula reproduces physical observables -- volume integrals and Yukawa couplings -- validating that symbolic distillation recovers compact, interpretable models for quantities previously accessible only to black-box networks.