Back to list
AAC:ALT 最短経路推論のためのアーキテクチャ適合微分ランドマーク圧縮
AAC: Admissible-by-Architecture Differentiable Landmark Compression for ALT
Translated: 2026/4/24 20:06:11
Japanese Translation
arXiv:2604.20744v1 Announce Type: cross
アブストラクト:我々は、ALT(A*、ランドマーク、および三角形不等式)最短経路推論手法の出力が構成上適合であり、かつ任意のパラメータ設定において微分ランドマーク選択モジュールである**AAC**(Architecturally Admissible Compressor)を導入しました。各順次は三角形不等式の下限の行確率混合であり、収束、калиブレーション、または投影を必要とせずに推論手法が常に適合します。実装上、AAC は学習されたサブセットで古典的な ALT へ単純化され、ニューラルエンコーダーとエンドツーエンドで構成されつつ、古典的なツールチェーンを保持します。この構成は、古典的推論検索の「適合性を保持しながら圧縮する」伝統において最初の微分実装です。
一致した辺ごとのメモリプロトコル下で、我々は最遠点サンプリングランドマークを持つ ALT(FPS-ALT)が計度量グラフにおいて証明的に近似的に最適のカバー率を持つことを確立し、それは任意の選択器に対して最大僅か数パーセンテージポイントの空き余白を残留させます。AAC はこの天井に近い動作を示します:9 つの道路交通網上で 0.9--3.9パーセンテージポイント、合成グラフ上で ${\leq}1.3$パーセンテージポイントのギャップがあり、1,500 以上のクエリと全ログされた実行で適合違反はゼロです。一致したメモリ条件下で、AAC は DIMACS 道路交通網のメデียนクエリにおいて FPS-ALT より 1.2--1.5 倍速く動作し、オフラインコストを 170--1,924 クエリ内で配分します。制御されたアブレーションが結合制約を隔離しました:デフォルト初期化におけるトレーニング目的のドリフトではなく、アーキテクチャ容量です。同値の最初の m 回 init 化が拡大数ギャップを完全に閉じます。我々は、このモジュール、可再利用な一致メモリベンチマークプロトコル(両一方の側試験 TOST 同値と事前登録をペアリング)、および参照圧縮微分推論基準をリリースしました。
Original Content
arXiv:2604.20744v1 Announce Type: cross
Abstract: We introduce \textbf{AAC} (Architecturally Admissible Compressor), a differentiable landmark-selection module for ALT (A*, Landmarks, and Triangle inequality) shortest-path heuristics whose outputs are admissible by construction: each forward pass is a row-stochastic mixture of triangle-inequality lower bounds, so the heuristic is admissible for \emph{every} parameter setting without requiring convergence, calibration, or projection. At deployment, the module reduces to classical ALT on a learned subset, composing end-to-end with neural encoders while preserving the classical toolchain. The construction is the first differentiable instance of the compress-while-preserving-admissibility tradition in classical heuristic search.
Under a matched per-vertex memory protocol, we establish that ALT with farthest-point-sampling landmarks (FPS-ALT) has provably near-optimal coverage on metric graphs, leaving at most a few percentage points of headroom for \emph{any} selector. AAC operates near this ceiling: the gap is $0.9$--$3.9$ percentage points on 9 road networks and ${\leq}1.3$ percentage points on synthetic graphs, with zero admissibility violations across $1{,}500+$ queries and all logged runs. At matched memory, AAC is also $1.2$--$1.5{\times}$ faster than FPS-ALT at the median query on DIMACS road networks, amortizing its offline cost within $170$--$1{,}924$ queries. A controlled ablation isolates the binding constraint: training-objective drift under default initialization, not architectural capacity; identity-on-first-$m$ initialization closes the expansion-count gap entirely. We release the module, a reusable matched-memory benchmarking protocol with paired two-one-sided-test (TOST) equivalence and pre-registration, and a reference compressed-differential-heuristics baseline.