Back to list
Shapley 加法的説明(SHAP)を用いて異常検知アルゴリズムの挙動とその補完性を理解する
Analyzing Shapley Additive Explanations to Understand Anomaly Detection Algorithm Behaviors and Their Complementarity
Translated: 2026/4/24 20:09:46
Japanese Translation
arXiv:2602.00208v3 Announce Type: replace
摘要: unlabeled データの多様性とラベルの欠如により、非教師付けによる異常検知は困難な課題です。複数の検出器を組み合わせるアンサンブル手法は、個々のバイアスを軽減し堅牢性を高めるため採用されていますが、本質的に補完的なアンサンブルの構築は依然として困難です。多くの検出器は類似した判断基準に依存しており、結果として冗長な異常スコアを生み出すためです。したがって、真に異なるタイプの不規則性を描き取るモデルを特定することの難しさは、アンサンブル学習の可能性を制限しています。この問題に対処するため、我々は決定メカニズムを通じて異常検出器を特徴づける方法を提案しました。SHapley Additive exPlanations(SHAP)を用いて、各モデルが入力特異性がもつ重要性をどのように割り当てているかを量化し、これらの割り当てプロファイルを Detectors 間の類似度を測定しました。我々の示したところによると、類似した説明を持つ検出器は相関のある異常スコアを生み出し、大幅に重なり合う異常を検出することがわかっています。逆に、説明の分岐は補完的な検出挙動を確実に示します。我々の結果は、説明に基づくメトリクスはアンサンブルのモデル選択において、出力そのものと異なる基準を提供することを示しています。ただし、我々はまた、多様性だけでは不十分であることを示しており、有効なアンサンブルのための前駆条件としての個々のモデルの高い性能が不可欠であることを示しています。説明の多様性を明示的に目指し、かつモデルの品質を維持することで、より多様で、より補完的であり、最終的には非教師付けの異常検知においてより効果的なアンサンブルを構築することが可能になりました。
Original Content
arXiv:2602.00208v3 Announce Type: replace
Abstract: Unsupervised anomaly detection is a challenging problem due to the diversity of data distributions and the lack of labels. Ensemble methods are often adopted to mitigate these challenges by combining multiple detectors, which can reduce individual biases and increase robustness. Yet building an ensemble that is genuinely complementary remains challenging, since many detectors rely on similar decision cues and end up producing redundant anomaly scores. As a result, the potential of ensemble learning is often limited by the difficulty of identifying models that truly capture different types of irregularities. To address this, we propose a methodology for characterizing anomaly detectors through their decision mechanisms. Using SHapley Additive exPlanations, we quantify how each model attributes importance to input features, and we use these attribution profiles to measure similarity between detectors. We show that detectors with similar explanations tend to produce correlated anomaly scores and identify largely overlapping anomalies. Conversely, explanation divergence reliably indicates complementary detection behavior. Our results demonstrate that explanation-driven metrics offer a different criterion than raw outputs for selecting models in an ensemble. However, we also demonstrate that diversity alone is insufficient; high individual model performance remains a prerequisite for effective ensembles. By explicitly targeting explanation diversity while maintaining model quality, we are able to construct ensembles that are more diverse, more complementary, and ultimately more effective for unsupervised anomaly detection.