Back to list
人間とAIの交互作用における信条転送
Belief Offloading in Human-AI Interaction
Translated: 2026/3/7 11:15:01
Japanese Translation
ロボット言語モデル(LLM)によって得られた人々の信念がどのようになされるのでしょうか?。人々は、ラーニングモ Entchatbotを思索パートナーとして使用し、それが知り込みオフロードに貢献する場合があります。これは過度な信頼に基づいても Cognitive オフロードに対する否定的な効果を持つことがあります。この本文では「信念転送」という特定の種類の認知オフロードを定義し、その下流の影響を含む人々の思考とそのシステムに影響を与える信念への転送について調査します。信頼を発生させ、維持するプロセスがAIシステムに移転されるものです。哲学、心理学、コンピュータサイエンスの研究に基づいて、これがどのように起こるのかの条件を明確にすることができるとともに、「信念転送」とその(normative イmplications)の描写された分類を行います。最後には、未来の仕事で信念転送における人間とAIの相互作用への機会と影響について評価するための方向性です。
Original Content
arXiv:2602.08754v1 Announce Type: new
Abstract: What happens when people's beliefs are derived from information provided by an LLM? People's use of LLM chatbots as thought partners can contribute to cognitive offloading, which can have adverse effects on cognitive skills in cases of over-reliance. This paper defines and investigates a particular kind of cognitive offloading in human-AI interaction, "belief offloading," in which people's processes of forming and upholding beliefs are offloaded onto an AI system with downstream consequences on their behavior and the nature of their system of beliefs. Drawing on philosophy, psychology, and computer science research, we clarify the boundary conditions under which belief offloading occurs and provide a descriptive taxonomy of belief offloading and its normative implications. We close with directions for future work to assess the potential for and consequences of belief offloading in human-AI interaction.