Back to list
単一観測を用いた拡散過程事前分布の最適化
Optimizing Diffusion Priors with a Single Observation
Translated: 2026/4/24 19:41:00
Japanese Translation
arXiv:2604.21066v1 発表タイプ:新規
抜粋:拡散事前分布は、多数の逆問題において高品質の後方サンプルを生成しますが、多くの場合、限られたトレーニングセットや純粋にシミュレーションされたデータでトレーニングされており、これらの下流ソースの誤差とバイアスを継承します。現在の拡散モデル的微調整アプローチは、多くのアプリケーションで収集が困難な大量の観測値と変化する前向演算子を必要とし、測定セットが小さい場合に過学習を招きます。我々は、既存の拡散事前分布を単一の専門家事前分布の積に統合し、ベイズ証拠を最大化する指数を特定することで、単一観測からのみ事前分布を調整する手法を提案します。我々は、真の事前分布が先に未知であるブラックホールイメージングを含む、現実世界の逆問題、およびテキスト条件付き事前分布を用いたイメージデブラーリングにおいてこの手法を検証しました。我々は、単一のデータセットでトレーニングされた事前分布を超えて拡張される事前分布がしばしば証拠を最大化することを発見しました。事前分布の指数加重化を通じて一般化することで、我々のアプローチは、トメーパード拡散モデルおよび組み合わされた拡散モデルから後方サンプルを取得可能にし、より柔軟な事前分布を生成して、結果となる後方イメージ分布の信頼性を向上させます。
Original Content
arXiv:2604.21066v1 Announce Type: new
Abstract: While diffusion priors generate high-quality posterior samples across many inverse problems, they are often trained on limited training sets or purely simulated data, thus inheriting the errors and biases of these underlying sources. Current approaches to finetuning diffusion models rely on a large number of observations with varying forward operators, which can be difficult to collect for many applications, and thus lead to overfitting when the measurement set is small. We propose a method for tuning a prior from only a single observation by combining existing diffusion priors into a single product-of-experts prior and identifying the exponents that maximize the Bayesian evidence. We validate our method on real-world inverse problems, including black hole imaging, where the true prior is unknown a priori, and image deblurring with text-conditioned priors. We find that the evidence is often maximized by priors that extend beyond those trained on a single dataset. By generalizing the prior through exponent weighting, our approach enables posterior sampling from both tempered and combined diffusion models, yielding more flexible priors that improve the trustworthiness of the resulting posterior image distribution.