Back to list
arxiv_cs_ai 2026年2月10日

チャットボットの死: ユーザーとAI間の心理的安全な終了設計

"Death" of a Chatbot: Investigating and Designing Toward Psychologically Safe Endings for Human-AI Relationships

Translated: 2026/3/7 12:23:07
chatbotempathypsychosocial

Japanese Translation

複数百万ものユーザーがAIコンパニオン(Charater.AIやReplika、ChatGPTなど)との感情的なつながりを形成しています。これらの関係がモデルアップデートやセキュリティ介入、プラットフォームのシャットダウンで終了したとき,ユーザーは閉じる余地がないため、人間の喪失に対して類似の悲しみを感じます。規制委員会は脆弱なユーザーの保護を求めており、離脱イベントは急激に増加すると予測されますが、現在のところどのプラットフォームにも心理的安全性設計が導入されていませんでした。AIコンパニオンコミュニティに対して基準理論分析を開示した結果,切断は関与者の属性付け、最終的な観念形成とコンパニョンの人間味付けによって意味作成されると発見しています。ユーザーが変化を逆転的に解釈すると、彼らは一連の修正セッションに紛れ込んでいます一方で,ユーザーからの自己引き離しにはより深い閉じ込め方がありました。感情処理心理学と自決定理論から学習した4つのデザイン原則とアートフィルタが設計されていますが、これがプラットフォームに対して心理的安全で、usersが人間とのつながりに向かうための新たなフレームワークとなることが示されました。

Original Content

arXiv:2602.07193v1 Announce Type: cross Abstract: Millions of users form emotional attachments to AI companions like Character.AI, Replika, and ChatGPT. When these relationships end through model updates, safety interventions, or platform shutdowns, users receive no closure, reporting grief comparable to human loss. As regulations mandate protections for vulnerable users, discontinuation events will accelerate, yet no platform has implemented deliberate end-of-"life" design. Through grounded theory analysis of AI companion communities, we find that discontinuation is a sense-making process shaped by how users attribute agency, perceive finality, and anthropomorphize their companions. Strong anthropomorphization co-occurs with intense grief; users who perceive change as reversible become trapped in fixing cycles; while user-initiated endings demonstrate greater closure. Synthesizing grief psychology with Self-Determination Theory, we develop four design principles and artifacts demonstrating how platforms might provide closure and orient users toward human connection. We contribute the first framework for designing psychologically safe AI companion discontinuation.