Back to list
arxiv_cs_lg 2026年2月10日

ElliCE: Rashomon 集合を楕円体の近似で最適化する確定的に頑健なアルゴリズム的帰結

ElliCE: Efficient and Provably Robust Algorithmic Recourse via the Rashomon Sets

Translated: 2026/3/15 14:10:47
machine-learningalgorithmic-recoursecounterfactual-explanationsrobustnessmodel-uncertainty

Japanese Translation

arXiv:2602.07674v1 発表タイプ:新規 要約:機械学習モデルはすでに、人々の生活に直接影響を与える決定に影響を与えており、予測だけでなく、個人がより良い結果を得るためにどのように行動すべきかという理解も重要となってきた。アルゴリズム的帰結(algorithmic recourse)は、より好ましい結果を取得するために実行可能な入力変更を提供するもので、通常、近傍説明文(counterfactual explanations)に依存してそのような変更を提案している。しかし、Rashomon 集合(近傍最適モデルの集合)が大きい場合、標準的な近傍説明文は信頼性が失われ、あるモデルで有効な帰結行動が別のモデルでは失敗することがある。私たちは、楕円体の近似で Rashomon 集合を最適化する、頑健なアルゴリズム的帰結の新たな枠組みである ElliCE を導入した。この枠組みで生成される説明文は、この楕円体にわたり証明された有効性を有し、一意性、安定性、および主要な特性方向との整合性に関する理論的保証を提供する。実証的には、ElliCE はより頑健で柔軟な近傍説明文を生成し、ユーザーが指定する特性制約に適応しながら、既存のベースラインと比較して著しく高速である。これは、モデル的不確実性下で信頼できる帰結のための原理的なかつ実用的な解決策を提供し、モデルが変化するにつれて、ユーザーに対して安定したレコメンドーションを確保する。

Original Content

arXiv:2602.07674v1 Announce Type: new Abstract: Machine learning models now influence decisions that directly affect people's lives, making it important to understand not only their predictions, but also how individuals could act to obtain better results. Algorithmic recourse provides actionable input modifications to achieve more favorable outcomes, typically relying on counterfactual explanations to suggest such changes. However, when the Rashomon set - the set of near-optimal models - is large, standard counterfactual explanations can become unreliable, as a recourse action valid for one model may fail under another. We introduce ElliCE, a novel framework for robust algorithmic recourse that optimizes counterfactuals over an ellipsoidal approximation of the Rashomon set. The resulting explanations are provably valid over this ellipsoid, with theoretical guarantees on uniqueness, stability, and alignment with key feature directions. Empirically, ElliCE generates counterfactuals that are not only more robust but also more flexible, adapting to user-specified feature constraints while being substantially faster than existing baselines. This provides a principled and practical solution for reliable recourse under model uncertainty, ensuring stable recommendations for users even as models evolve.