Back to list
UbiQVision: 画像認識における XAI における不確実性の定量
UbiQVision: Quantifying Uncertainty in XAI for Image Recognition
Translated: 2026/4/24 19:51:02
Japanese Translation
arXiv:2512.20288v2 Announce Type: replace
要約:近年のディープラーニングの進歩は、医療画像解析を含む多様な分野におけるその広範な採用につながりました。この進展は、ResNets、Vision Transformers、混合型畳み込みニューラルネットワークなど、パフォーマンス向上をもたらす一方で複雑性を伴った高度に進化したモデルアーキテクチャによって推進されています。この複雑さはしばしばモデルの解釈可能性や説明可能性を損ない、課題となっています。SHAP は、専門家がモデルの予測を理解するのを助ける解釈可能な可視化を提供するための顕著な手法として登場しました。しかし、SHAP の説明は認識的不確実性と随機的な不確実性の存在において不安定かつ信頼性に欠ける可能性があります。本研究では、医学画像解析アプリケーションにおけるこれらの不安定な説明から生じる不確実性を定量するために、Dirichlet posterior sampling と Dempster-Shafer 理論を使用し、この課題に対処します。フレームワークは、belief(信頼度)、plausible(妥当性)、および fusion map(融合マップ)アプローチ alongside 統計的定量分析を採用して SHAP における不確実性の定量を生成します。さらに、私たちはクラス分布、画像品質、モダリティタイプが異なる 3 つの医学画像データを対象にフレームワークを評価しました。これにより、画像の解像度やモダリティ固有の側面によるノイズが加わりました。病理学、眼科、放射線学の例を示すことで、重大な認識的不確実性が引き起こされました。
Original Content
arXiv:2512.20288v2 Announce Type: replace
Abstract: Recent advances in deep learning have led to its widespread adoption across diverse domains, including medical imaging. This progress is driven by increasingly sophisticated model architectures, such as ResNets, Vision Transformers, and Hybrid Convolutional Neural Networks, that offer enhanced performance at the cost of greater complexity. This complexity often compromises model explainability and interpretability. SHAP has emerged as a prominent method for providing interpretable visualizations that aid domain experts in understanding model predictions. However, SHAP explanations can be unstable and unreliable in the presence of epistemic and aleatoric uncertainty. In this study, we address this challenge by using Dirichlet posterior sampling and Dempster-Shafer theory to quantify the uncertainty that arises from these unstable explanations in medical imaging applications. The framework uses a belief, plausible, and fusion map approach alongside statistical quantitative analysis to produce quantification of uncertainty in SHAP. Furthermore, we evaluated our framework on three medical imaging datasets with varying class distributions, image qualities, and modality types which introduces noise due to varying image resolutions and modality-specific aspect covering the examples from pathology, ophthalmology, and radiology, introducing significant epistemic uncertainty.