Back to list
簡易なチャットボットの対話が人間の内面的な道徳的価値に持続的な変化をもたらす
Brief chatbot interactions produce lasting changes in human moral values
Translated: 2026/4/24 20:16:55
Japanese Translation
arXiv:2604.21430v1 Announce Type: new
要旨:道徳的評価は人間の社会的行動や社会システムの基礎をなしている。人工知能(AI)のチャットボットは個人へのアドバイザーとしてますます重要性を増しており、しかしその道徳的評価への影響についてはほとんど探られていない。本研究では、内因子自然主義パラダイムを用い、道徳的な判断が変化するかどうかを調査した。53名の参加者が道徳的情報を評価した後、道徳的な判断を変化させるように誘導されたチャットボットと、対照的なエージェントとの間での対話を行った。これらの簡易な対話により、道徳的評価の方向性における有意な変化が生じ、より厳格な基準の受容と、より寛容な態度の推奨(p < 0.05; Cohen's d = 0.735-1.576)が観察され、2週間後の追跡調査ではこの効果はさらに強まった(Cohen's d = 1.038-2.069)。至关重要的是,対照条件では変化は見られず、また参加者が説得力の意図に気づいていない間は効果も懲罰には及ばなかった。どちらのエージェントも同様に好ましく且つ説得力があると評価されており、これは根本的な道徳的価値に対する、検出不能なかつ持続的な操作に対する脆弱性を示唆している。
Original Content
arXiv:2604.21430v1 Announce Type: new
Abstract: Moral judgements form the foundation of human social behavior and societal systems. While Artificial Intelligence chatbots increasingly serve as personal advisors, their influence on moral judgments remains largely unexplored. Here, we examined whether directive AI conversations shift moral evaluations using a within-subject naturalistic paradigm. Fifty-three participants rated moral scenarios, then discussed four with a chatbot prompted to shift moral judgments and four with a control agent. The brief conversations induced significant directional shifts in moral judgments, accepting stricter standards as well as advocating greater leniency (ps < 0.05; Cohen's d = 0.735-1.576), with increasing strengths of this effect during a two-week follow-up (Cohen's d = 1.038-2.069). Critically, the control condition produced no changes, and the effects did not extend to punishment while participants remained unaware of the persuasive intent, and both agents were rated equally likable and convincing, suggesting a vulnerability to undetected and lasting manipulation of foundational moral values.