Back to list
条件リスクのキャリブレーション
Calibrating conditional risk
Translated: 2026/4/24 19:58:46
Japanese Translation
arXiv:2604.20409v1 Announce Type: new
摘要:我々は、入力特徴条件付きでの予測モデルの損失期待値を推定することを含む条件リスクキャリブレーションの問題を導入・研究しました。これについては、分類および回帰の両方の設定で分析を行い、これが標準的な回帰タスクと本質的に同等であることを示しました。分類設定では、条件リスクキャリブレーションと個別/条件付き確率キャリブレーションとの関係性を確立し、パフォーマンス指標に関する理論的洞察を発展させました。これは、条件リスクキャリブレーションが既存の不確実性定量の問題に関連している一方で、それは明確に独立した機械学習問題であることを示しています。実証面では、我々の理論的発見を検証し、条件リスクキャリブレーションの「学習に延期(Learning to Deferrence, L2D)」フレームワークにおける実用的な影響を示しました。我々の系統的実験は定性的かつ定量的な評価を提供し、不確実性感知意思決定分野の未来の研究へガイダンスを与えます。
Original Content
arXiv:2604.20409v1 Announce Type: new
Abstract: We introduce and study the problem of calibrating conditional risk, which involves estimating the expected loss of a prediction model conditional on input features. We analyze this problem in both classification and regression settings and show that it is fundamentally equivalent to a standard regression task. For classification settings, we further establish a connection between conditional risk calibration and individual/conditional probability calibration, and develop theoretical insights for the performance metric. This reveals that while conditional risk calibration is related to existing uncertainty quantification problems, it remains a distinct and standalone machine learning problem. Empirically, we validate our theoretical findings and demonstrate the practical implications of conditional risk calibration in the learning to defer (L2D) framework. Our systematic experiments provide both qualitative and quantitative assessments, offering guidance for future research in uncertainty-aware decision-making.