Back to list
因果分離に基づく完全参照画像品質評価
Causal Disentanglement for Full-Reference Image Quality Assessment
Translated: 2026/4/24 19:45:33
Japanese Translation
arXiv:2604.21654v1 発表 タイプ:新
要約:既存のディープネットワークに基づく完全参照画像品質評価(FR-IQA)モデルは、通常、参照画像と歪み画像のディープ特徴をペアライズ比較することで動作します。この論文では、この課題を異なる視点からアプローチし、因果推論と結合されていない表現学習に基づいた新しい FR-IQA パラダイムを提案します。通常の特徴比較ベースの FR-IQA モデルとは異なり、我々のアプローチは潜在的な表現に対する介入をガイドとして因果分離プロセスとして劣化推定を形式化します。まず、参照画像と歪み画像の間における内容不変性を利用して劣化表現と内容表現を分離します。次に、人間の視覚掩蔽効果に触発され、画像内容と劣化特徴間の因果関係をモデル化する掩蔽モジュールを設計し、歪み画像から内容影響のある劣化特徴を抽出します。最後に、品質スコアは、これらの劣化特徴から監督された回帰またはラベルフリー次元削減を用いて予測されます。大規模な実験では、我々の手法が完全に監督された、少数ラベル、およびラベルフリーのすべての設定において標準的な IQA ベンチマークで非常に競合するパフォーマンスを実証しました。さらに、我々のアプローチは、標本データが少ない多種多様な非標準的な自然画像ドメインでも評価し、水中、放射線、医療、中性子、およびスクリーン内容の画像を含めます。ラベル付き IQA データなしでシナリオ固有のトレーニングと予測を実行できる能力を有する上、我々の手法は、既存のトレーニングフリー FR-IQA モデルと比較して卓越したドメイン間一般化能力を発揮しています。
Original Content
arXiv:2604.21654v1 Announce Type: new
Abstract: Existing deep network-based full-reference image quality assessment (FR-IQA) models typically work by performing pairwise comparisons of deep features from the reference and distorted images. In this paper, we approach this problem from a different perspective and propose a novel FR-IQA paradigm based on causal inference and decoupled representation learning. Unlike typical feature comparison-based FR-IQA models, our approach formulates degradation estimation as a causal disentanglement process guided by intervention on latent representations. We first decouple degradation and content representations by exploiting the content invariance between the reference and distorted images. Second, inspired by the human visual masking effect, we design a masking module to model the causal relationship between image content and degradation features, thereby extracting content-influenced degradation features from distorted images. Finally, quality scores are predicted from these degradation features using either supervised regression or label-free dimensionality reduction. Extensive experiments demonstrate that our method achieves highly competitive performance on standard IQA benchmarks across fully supervised, few-label, and label-free settings. Furthermore, we evaluate the approach on diverse non-standard natural image domains with scarce data, including underwater, radiographic, medical, neutron, and screen-content images. Benefiting from its ability to perform scenario-specific training and prediction without labeled IQA data, our method exhibits superior cross-domain generalization compared to existing training-free FR-IQA models.