Back to list
最適化を超へる:幾何的不完全性下でのトポロジ的因子分解に基づくインテリジェンスのメトリクス・トポロジー理論
Beyond Optimization: Intelligence as Metric-Topology Factorization under Geometric Incompleteness
Translated: 2026/3/15 14:49:53
Japanese Translation
arXiv:2602.07974v1 発表 タイプ:新規
要約:現代的な機械学習は、しばしばインテリジェンスを最適化に同一化し、固定された表現幾何形内の解の探求とみなしている。これは静的な環境では機能するが、分布シフト、タスクの再配置、および続編学習(continual learning)といった状況では、軽微なトポロジ的変化が学習された解を無効化し、カオティックな忘却(catastrophic forgetting)を引き起こすように破綻する。我々は、メトリクス・トポロジー因子化(Metric-Topology Factorization: MTF)という統一的な幾何学原理を提案した。インテリジェンスとは、固定された迷路を通り抜けるナビゲーションではなく、望ましい振る舞いを安定した吸引子(stable attractors)にするよう表現の幾何形そのものを再構築する能力である。学習はリマンニアン構造の制御された変形、すなわちメトリクス収縮に相当し、タスクの同一性と環境変化はトポロジ的にエンコードされ、記憶と別々に保存される。我々は、任意の固定されたメトリクスは幾何的に不完全であることを示した:局所的メトリクス表現に対して、あるトポロジ的変形がそれを不確定または矛盾するものにするため、ウェイトベースのシステムにおいて、安定性と可塑性の間での避けがたいトレードオフが存在する。MTF は、安定するトポロジーと弾性なメトリクス歪みを因子分解することで、最適化の再計算ではなく幾何学的切り替えを通じて迅速な適応を可能にしている。これに基づき、我々はトポロジック・ウルショフ機(Topological Urysohn Machine: TUM)を導入した。MTF は、メトリクス・アモルティゼーション推論(Metric-Topology Amortized Inference: MAMI)を通じて実装されており、スペクトラルなタスクシグネチャがアモルティゼされたメトリクス変換をインデックス化し、単一の学習された幾何形が、再配置、反転、または並列性を失った環境においても再利用されるようにする。これにより、タスク再配置への耐性、カオティックな忘却への抵抗、および従来的な続編学習方法(例:EWC)に勝る変換に対する汎化能力が説明される。
Original Content
arXiv:2602.07974v1 Announce Type: new
Abstract: Contemporary ML often equates intelligence with optimization: searching for solutions within a fixed representational geometry. This works in static regimes but breaks under distributional shift, task permutation, and continual learning, where even mild topological changes can invalidate learned solutions and trigger catastrophic forgetting. We propose Metric-Topology Factorization (MTF) as a unifying geometric principle: intelligence is not navigation through a fixed maze, but the ability to reshape representational geometry so desired behaviors become stable attractors. Learning corresponds to metric contraction (a controlled deformation of Riemannian structure), while task identity and environmental variation are encoded topologically and stored separately in memory. We show any fixed metric is geometrically incomplete: for any local metric representation, some topological transformations make it singular or incoherent, implying an unavoidable stability-plasticity tradeoff for weight-based systems. MTF resolves this by factorizing stable topology from plastic metric warps, enabling rapid adaptation via geometric switching rather than re-optimization. Building on this, we introduce the Topological Urysohn Machine (TUM), implementing MTF through memory-amortized metric inference (MAMI): spectral task signatures index amortized metric transformations, letting a single learned geometry be reused across permuted, reflected, or parity-altered environments. This explains robustness to task reordering, resistance to catastrophic forgetting, and generalization across transformations that defeat conventional continual learning methods (e.g., EWC).