Back to list
Sequential decisions における不確実性下の公平性
Fairness under uncertainty in sequential decisions
Translated: 2026/4/24 20:28:19
Japanese Translation
arXiv:2604.21711v1 Announce Type: cross
Abstract: フェアな機械学習(ML)手法は、アルゴリズムが社会的不公正をコード化したり自動化したりするリスクを特定し軽減するのを助けます。アルゴリズムアプローチ alone では構造的な不平等を解決することはできませんが、識別された偏りを浮き彫りにし、トレードオフを明確にし、ガバナンスを可能にするを通じて、社会技術的決定システムを支援できます。公平性は上流学習において広く研究されていますが、多くの現実の ML 応用はオンラインでありシークウェンシャルであり、過去の決定が未来の決定に影響を与えています。各決定は、未観測 counterfactuals と有限サンプルのために不確実性のもとで行われ、これは歴史的排除と選択的フィードバックにより、歴史的排除と選択的フィードバックにより代表されなかったグループにとって致命的な結果をもたらします。銀行は拒否された貸し出し金が返済されるかどうかを知ることはできず、被排除された集団についてはデータが少ない場合があります。
本稿では、決定シークウェンシャルにおける不確実性の分類法を導入します。これにより、不確実性がグループ間で不均等に分布しているシステムを評価するための共通の語彙を提供します。我々は counterfactual logic と強化学習を通じてモデル不確実性とフィードバック不確実性を形式化し、未観測スペースを無視する政策が決定者(実現されなかった利益・損失)と被験者(複合的な排除、アクセスの減少)にも与える害を示します。アルゴリズム事例は、不利なグループにおける結果の変動を減らしながら制度的目標(例:期待される効用)を維持することが可能であることを示しています。バイアス変動のあるデータでシミュレーションされた実験は、不均等な不確実性と選択的フィードバックが生み出す乖異を、および不確実性意識探索が公平性指標に及ぼす影響を示しています。この枠組みは、専門家が公平性リスクを診断、監査、ガバナンスするのを支えます。不確実性が偶然のノイズではなく不公平性を引き起こす場合、公平かつ効果的な意思決定のためにそれを考慮することは不可欠です。
Original Content
arXiv:2604.21711v1 Announce Type: cross
Abstract: Fair machine learning (ML) methods help identify and mitigate the risk that algorithms encode or automate social injustices. Algorithmic approaches alone cannot resolve structural inequalities, but they can support socio-technical decision systems by surfacing discriminatory biases, clarifying trade-offs, and enabling governance. Although fairness is well studied in supervised learning, many real ML applications are online and sequential, with prior decisions informing future ones. Each decision is taken under uncertainty due to unobserved counterfactuals and finite samples, with dire consequences for under-represented groups, systematically under-observed due to historical exclusion and selective feedback. A bank cannot know whether a denied loan would have been repaid, and may have less data on marginalized populations.
This paper introduces a taxonomy of uncertainty in sequential decision-making -- model, feedback, and prediction uncertainty -- providing shared vocabulary for assessing systems where uncertainty is unevenly distributed across groups. We formalize model and feedback uncertainty via counterfactual logic and reinforcement learning, and illustrate harms to decision makers (unrealized gains/losses) and subjects (compounding exclusion, reduced access) of policies that ignore the unobserved space. Algorithmic examples show it is possible to reduce outcome variance for disadvantaged groups while preserving institutional objectives (e.g. expected utility). Experiments on data simulated with varying bias show how unequal uncertainty and selective feedback produce disparities, and how uncertainty-aware exploration alters fairness metrics. The framework equips practitioners to diagnose, audit, and govern fairness risks. Where uncertainty drives unfairness rather than incidental noise, accounting for it is essential to fair and effective decision-making.