Back to list
arxiv_cs_ai 2026年4月24日

AI 議論における戦略的曖昧性:言語、ハイク、そして権力についての哲学的分析

Strategic Polysemy in AI Discourse: A Philosophical Analysis of Language, Hype, and Power

Translated: 2026/4/24 20:22:56
ai-discoursestrategic-polysemylanguage-philosophyai-hypeglosslighting

Japanese Translation

arXiv:2604.21043v1 Announce Type: cross 本稿では、現代的人工知能 (AI) 議論における言語の戦略的利用を検討します。具体的には、「ハルシネーション(幻覚)」、「Chain-of-thought(思考の連鎖)」、「introspection(内省)」、「language model(言語モデル)」、「alignment(対齐)」、「agent(エージェント)」などの比喩的または慣用的な語彙の広範な採用に焦点を当てています。我々は、これらの多くの用語が戦略的曖義性を示すと主張します:すなわち、これらの用語は狭い技術的な定義を、より広範な人類学的なまたは常識的な連想と組み合わせつつ、同時に複数の解釈を維持しています。現代の AI 研究および展開の文脈において、この語義的な柔軟性は、AI システムが研究者、政策決定者、資金提供者、そして一般市民によって理解される方法を形成する、劇的な制度的・議論的な効果を生み出します。この現象を分析するために、我々は概念「glosslighting」を導入します:これは、技術的に再定義された用語を用いて、直感的な(しばしば人類学的あるいは誤解を招く)連想を喚起し、同時に、狭い技術的な定義を通過した形で合理的な曖昧性を保つ実践です。glosslighting は、既知の言語の説得力を享受しつつ、挑戦された際に狭い定義に引き退くことができる能力を維持することを可能にします。我々は、この実践が AI のハイクサイクルに寄与し、投資や制度的支援の動員を容易にし、AI システムに対する公衆および政策上の認識に影響を与え、しばしば认识論的・倫理的な審査を回避する( deflecting )と主張します。glosslighting と戦略的曖義性の言語的ダイナミクスを考察することで、本稿は、言語そのものが AI の開発とガバナンスを形成する社会技術的なメカニズムとして機能する方法を明らかにします。

Original Content

arXiv:2604.21043v1 Announce Type: cross Abstract: This paper examines the strategic use of language in contemporary artificial intelligence (AI) discourse, focusing on the widespread adoption of metaphorical or colloquial terms like "hallucination", "chain-of-thought", "introspection", "language model", "alignment", and "agent". We argue that many such terms exhibit strategic polysemy: they sustain multiple interpretations simultaneously, combining narrow technical definitions with broader anthropomorphic or common-sense associations. In contemporary AI research and deployment contexts, this semantic flexibility produces significant institutional and discursive effects, shaping how AI systems are understood by researchers, policymakers, funders, and the public. To analyse this phenomenon, we introduce the concept of glosslighting: the practice of using technically redefined terms to evoke intuitive -- often anthropomorphic or misleading -- associations while preserving plausible deniability through restricted technical definitions. Glosslighting enables actors to benefit from the persuasive force of familiar language while maintaining the ability to retreat to narrower definitions when challenged. We argue that this practice contributes to AI hype cycles, facilitates the mobilisation of investment and institutional support, and influences public and policy perceptions of AI systems, while often deflecting epistemic and ethical scrutiny. By examining the linguistic dynamics of glosslighting and strategic polysemy, the paper highlights how language itself functions as a sociotechnical mechanism shaping the development and governance of AI.