Back to list
arxiv_cs_lg 2026年2月10日

Diffeーションサンプリングによるデータ変換の逆転

Inverting Data Transformations via Diffusion Sampling

Translated: 2026/3/15 15:03:49
diffusion-modelslie-groupsneural-networksmachine-learningtest-time-equivariance

Japanese Translation

arXiv:2602.08267v1 Announce Type: new 抜粋: 私たちは、一般のリー群における変換逆転の問題を研究します:データは不明な群要素によって変換され、その逆変換を復元することにより元のデータ分布へとそれを戻します。このような不明な変換は機械学習や科学モデルリングにおいて広く現れ、観察を著しく歪める可能性があります。私々は確率的視点を取り、データ空間上のエネルギー関数によって定義されたボルツマン分布に変換のパストリアリーールをモデル化します。このポステリアルのサンプリングに、リー群上で全ての更新をリー上流階(manifold)に保持し、関連するリー代数上でのみ計算を必要とするディフューズ過程を導入しました。私々の手法、Transformation-Inverting Energy Diffusion(TIED)は、変換ポステリアリーの効率的なスコアベースのサンプリングを可能にする新しいトリビアル化されたターゲットスコア恒等式に依存しています。重要な応用として、私々はテスト時の同値性(test-time equivariance)に焦点を当てます。そこでは、目的は事前にトレーニングされたニューラルネットワークの入力変換に対する堅牢性を向上させることです。画像ホモグラフィおよび PDE 対称性における実験は、TIED がテスト時に変換された入力をトレーニング分布に回復させることができることを示し、強力な正規化およびサンプリングベースラインに比べて改善されたパフォーマンスを行ったことを示しています。コードは https://github.com/jw9730/tied で利用可能です。

Original Content

arXiv:2602.08267v1 Announce Type: new Abstract: We study the problem of transformation inversion on general Lie groups: a datum is transformed by an unknown group element, and the goal is to recover an inverse transformation that maps it back to the original data distribution. Such unknown transformations arise widely in machine learning and scientific modeling, where they can significantly distort observations. We take a probabilistic view and model the posterior over transformations as a Boltzmann distribution defined by an energy function on data space. To sample from this posterior, we introduce a diffusion process on Lie groups that keeps all updates on-manifold and only requires computations in the associated Lie algebra. Our method, Transformation-Inverting Energy Diffusion (TIED), relies on a new trivialized target-score identity that enables efficient score-based sampling of the transformation posterior. As a key application, we focus on test-time equivariance, where the objective is to improve the robustness of pretrained neural networks to input transformations. Experiments on image homographies and PDE symmetries demonstrate that TIED can restore transformed inputs to the training distribution at test time, showing improved performance over strong canonicalization and sampling baselines. Code is available at https://github.com/jw9730/tied.