Back to list
認識論が人−AI 相互作用における補完性の未来を補完する
Epistemology gives a Future to Complementarity in Human-AI Interactions
Translated: 2026/4/24 20:13:41
Japanese Translation
arXiv:2601.09871v2 宣言タイプ: 代替クロス
要約:人−AI 補完性は、AI 支援を受けた人間が、どちらでも独自に行う決定プロセスよりも優れて結果を出すという主張である。人−AI 相互作用文献において導入以来、信頼という争われた構成に対してより実用的な代替案を提供するとともに、依存のパラジグムを一般化する形で、注目を集めてきた。しかし、補完性は重要な理論的な課題を抱えている:精密な理論的なアンカーを欠き、後付け的な相対予測精度の指標としてしか形式化されていないため、人−AI 相互作用の他の目的論的要求について沈黙を続け、パフォーマンス改善の規模−費用プロファイルからは抽象化されている。その結果、補完性は実証的な環境において入手が難しい。本作業では、これらの課題に対処するために認識論を利用し、正当化 AI の議論の文脈の中で補完性を再定義する。計算論的可靠主義に基づき、歴史的な補完の事例が、特定の予測タスクに対して、特定の人間−AI 相互作用が信頼性の高い認識的プロセスであることを示す証拠であると主張する。人−AI チームが認識論的基準および社会技術的実践との整合性を評価する他の信頼性指標と共に、補完性は予測の生成において人−AI チームの信頼性に寄与する。この再位置付けは、これらの出力に影響を受ける者(患者、経営者、規制当局者、他者を含む)の実用的な推論を支援する。私たちのアプローチは、補完性の役割と価値が相対予測精度の独立した尺度を提供することにないが、AI 支援のプロセスの信頼性に適応させる意思決定を助けることにあると示唆する。最後に、正当化の人−AI 相互作用のための最小限の報告チェックリストと、効率的な補完性の測定を含む、設計とガバナンス指向の推奨事項にこの再位置付けを翻訳することにより結論を述べる。
Original Content
arXiv:2601.09871v2 Announce Type: replace-cross
Abstract: Human-AI complementarity is the claim that a human supported by an AI system can outperform either alone in a decision-making process. Since its introduction in the humanAI interaction literature, it has gained traction by generalizing the reliance paradigm and by offering a more practical alternative to the contested construct of trust in AI. Yet complementarity faces key theoretical challenges: it lacks precise theoretical anchoring, it is formalized only as a post hoc indicator of relative predictive accuracy, it remains silent about other desiderata of human-AI interactions, and it abstracts away from the magnitude-cost profile of its performance gain. As a result, complementarity is difficult to obtain in empirical settings. In this work, we leverage epistemology to address these challenges by reframing complementarity within the discourse on justificatory AI. Drawing on computational reliabilism, we argue that historical instances of complementarity function as evidence that a given human-AI interaction is a reliable epistemic process for a given predictive task. Together with other reliability indicators assessing the alignment of the human-AI team with the epistemic standards and socio-technical practices, complementarity contributes to the degree of reliability of human-AI teams when generating predictions. This repositioning supports the practical reasoning of those affected by these outputs -- patients, managers, regulators, and others. Our approach suggests that the role and value of complementarity lie not in providing a stand-alone measure of relative predictive accuracy, but in helping calibrate decision-making to the reliability of AI-supported processes. We conclude by translating this repositioning into design- and governance-oriented recommendations, including a minimal reporting checklist for justificatory human-AI interactions and measures of efficient complementarity.