Back to list
arxiv_cs_ai 2026年2月10日

影響を受けた人々がAIの公平性評価を形作る:プロセス、基準とツール

Empowering Affected Individuals to Shape AI Fairness Assessments: Processes, Criteria, and Tools

Translated: 2026/3/7 11:26:53
fairnessai-fairnessuser-studyinvolving-affected-people

Japanese Translation

AIシステムは、クレジット評価などの高リスク分野で広く使用され始めています。ここで起こされる決定に対する不平等懸念があります。現在の公平性評価では、主に専門家や規制者が一般的な保護属性と指標を使用して行われていますが、これは影響を受けた人々がどのように感じている公平性の複雑さやニュアンスについてうまく捉えていないことが知られています。最近の研究でも、より多くの人がこのような評価プロセスに関与すべきであると呼びかけられていました。それでも実証的なデータは少なく、彼らが自身でどのような基準を設定し、どの種類の基準を作成するかに関する知識があるのかはまだ分かりません。これらの情報があれば、専門家による公平性評価や対策の改善に役立つ可能性があります。また、AI評価ツール設計の方針も変えることができます。我々の研究では、18人の参加者がクレジット評価シナリオで自身の公平性の notions を表現し始めました。彼らは自分の基準を具体的な数値化と実行に落としていきました。このプロセスを通じて、人々の公平性の notionsがモデルの特徴から生まれる過程も明らかとなりました。また、結果的および手続き的な公平性に基づいた多くの人々のカスタマイズされた基準を特定しました。これらのことに対するプロセッドとツール設計に関するデザインに向けたアイデアを提供します。

Original Content

arXiv:2602.06984v1 Announce Type: cross Abstract: AI systems are increasingly used in high-stakes domains such as credit rating, where fairness concerns are critical. Existing fairness assessments are typically conducted by AI experts or regulators using predefined protected attributes and metrics, which often fail to capture the diversity and nuance of fairness notions held by the individuals who are affected by these systems' decisions, such as decision subjects. Recent work has therefore called for involving affected individuals in fairness assessment, yet little empirical evidence exists on how they create their own fairness criteria or what kinds of criteria they produce - knowledge that could not only inform experts' fairness evaluation and mitigation, but also guide the design of AI assessment tools. We address this gap through a qualitative user study with 18 participants in a credit rating scenario. Participants first articulated their fairness notions in their own words. Then, participants turned them into concrete quantified and operationalized fairness criteria, through an interactive prototype we designed. Our findings provide empirical evidence of the process through which people's fairness notions emerge via grounding in model features, and uncover a diverse set of individuals' custom-defined criteria for both outcome and procedural fairness. We provide design implications for processes and tools that support more inclusive and value-sensitive AI fairness assessment.