Back to list
セーフティとは?企業は如何に「安全」という概念を構築し、共有するか
What is Safety? Corporate Discourse, Power, and the Politics of Generative AI Safety
Translated: 2026/3/7 11:26:18
Japanese Translation
この研究では、生成式人工知能(AI)のリーダー企業が公的文書を通じて、「安全」という概念どのように構築し、共有しているのかを探る。「批判的言語分析」に基づき、社内の安全保障に関する声明をコーラスとして分析する。これには権力、責任、および合法性という言語が成立した様子に焦点を当てている。これらの言語戦略は企業の参加を強制し、科学技術的な実験と予測性の役割の正常化を達成している。この論文では、「安全性」が社会技術的な分野でより専門的に見直すべきものであるように示唆するための貢献を持っており、AIに関連する人工知能の人類とコンピュータとのやりとり科学者に対して、企業のフレームを認可することは非常に重要であり、相反する解決策における責任、公平性和正義への視野を前面に出すべきであることを警鐘にしている。この研究は、「安全」という言語のポリティクスについて深い洞察を与える。
Original Content
arXiv:2602.06981v1 Announce Type: cross
Abstract: This work examines how leading generative artificial intelligence companies construct and communicate the concept of "safety" through public-facing documents. Drawing on critical discourse analysis, we analyze a corpus of corporate safety-related statements to explicate how authority, responsibility, and legitimacy are discursively established. These discursive strategies consolidate legitimacy for corporate actors, normalize safety as an experimental and anticipatory practice, and push a perceived participatory agenda toward safe technologies. We argue that uncritical uptake of these discourses risks reproducing corporate priorities and constraining alternative approaches to governance and design. The contribution of this work is twofold: first, to situate safety as a sociotechnical discourse that warrants critical examination; second, to caution human-computer interaction scholars against legitimizing corporate framings, instead foregrounding accountability, equity, and justice. By interrogating safety discourses as artifacts of power, this paper advances a critical agenda for human-computer interaction scholarship on artificial intelligence.