Back to list
離散アジュント・シュレーディンガーブリッジサンプリア
Discrete Adjoint Schr\"odinger Bridge Sampler
Translated: 2026/3/15 8:02:53
Japanese Translation
arXiv:2602.08243v1 Announce Type: cross
摘要: ディスクラートニューラルサンプリアの学習は、勾配の欠如と組合せ的複雑さのせいで挑戦的です。確率的最適制御 (SOC) とシュレーディンガーブリッジ (SB) は原理に基づいた解決策を提供しますが、連続領域で卓越するアジュントマッチング (AM) などの効率的な SOC ソルバーは、まだ離散空間に対して探索されていません。我々は、AM の核となる機構がステート空間非特約であることを明らかにし、離散空間へ AM およびアジュント・シュレーディンガーブリッジサンプリア (ASBS) を拡張する統一フレームワークである discrete ASBS を導入しました。理論的には、我々は离散 SB 問題の最適性条件を分析し、SOC との関係を特定し、この拡張を可能にするためにステート空間上に必要な円群構造を特定しました。実証的には、discrete ASBS は競合的なサンプル品質を達成し、学習効率とスケーラビリティにおいて顕著な優位性を示しています。
Original Content
arXiv:2602.08243v1 Announce Type: cross
Abstract: Learning discrete neural samplers is challenging due to the lack of gradients and combinatorial complexity. While stochastic optimal control (SOC) and Schr\"odinger bridge (SB) provide principled solutions, efficient SOC solvers like adjoint matching (AM), which excel in continuous domains, remain unexplored for discrete spaces. We bridge this gap by revealing that the core mechanism of AM is $\mathit{state}\text{-}\mathit{space~agnostic}$, and introduce $\mathbf{discrete~ASBS}$, a unified framework that extends AM and adjoint Schr\"odinger bridge sampler (ASBS) to discrete spaces. Theoretically, we analyze the optimality conditions of the discrete SB problem and its connection to SOC, identifying a necessary cyclic group structure on the state space to enable this extension. Empirically, discrete ASBS achieves competitive sample quality with significant advantages in training efficiency and scalability.