Back to list
arxiv_cs_ai 2026年4月24日

政治的転換下における AI ガバナンス:コンプライアンス設計の対齐表面

AI Governance under Political Turnover: The Alignment Surface of Compliance Design

Translated: 2026/4/24 20:15:33
ai-governancepublic-administrationcompliance-designformal-modelingalgorithmic-audit

Japanese Translation

arXiv:2604.21103v1 Announce Type: new 抽象: 政府は、行政判断をより安価、スケールリングに強く、一貫性のあるものにするために AI を活用する意欲が高まっている。しかし、確率的 AI を公共行政に組み込むためには、判断をレビュー可能、繰り返し可能、かつ法的に擁護できるコンプライアンス層を内包させる必要がある。その層は、法から逸脱したことを容易に検出することで監督を強化する可能性がある。一方、それは政治的な後継者が学びながら航行する安定した承認境界線を生み出し、法的行政の装いを保つ。私たちは、機関が自動化の規模、形式化の度合い、および迭代使用のためのセキュリティ措置を選択する形式モデルを開発した。このモデルは、これらのシステムが政府内部から戦略的に利用されやすくなる時期をどのように示すか、初期の監督を強化する改革が後にその脆弱性をどのように増加させるか、そして AI 利用の拡大をなぜ容易に遡返できないかを示唆する。したがって、AI を使いやすくすることは、未来の政府が手続きを学び、かつ利用するのを容易にする可能性がある。

Original Content

arXiv:2604.21103v1 Announce Type: new Abstract: Governments are increasingly interested in using AI to make administrative decisions cheaper, more scalable, and more consistent. But for probabilistic AI to be incorporated into public administration it must be embedded in a compliance layer that makes decisions reviewable, repeatable, and legally defensible. That layer can improve oversight by making departures from law easier to detect. But it can also create a stable approval boundary that political successors learn to navigate while preserving the appearance of lawful administration. We develop a formal model in which institutions choose the scale of automation, the degree of codification, and safeguards on iterative use. The model shows when these systems become vulnerable to strategic use from within government, why reforms that initially improve oversight can later increase that vulnerability, and why expansions in AI use may be difficult to unwind. Making AI usable can thus make procedures easier for future governments to learn and exploit.