Back to list
arxiv_cs_ai 2026年2月10日

チャットボットに対する信頼感はなぜ存在する? Normative プレシスと行動的動機からの解釈

Why do we Trust Chatbots? From Normative Principles to Behavioral Drivers

Translated: 2026/3/7 10:16:43
aichatbotsuser-experiencepersuasionbehavioral-design

Japanese Translation

チャットボットが通常の自動化システムとなり、人間との会話の境界をぼやきさせるにつれて、これらのシステムに対する信頼の foundations の詳細な調査は必要です。多くの場合、ユーザーはチャットボットに対して信頼を持たれないことが多く、これは、特定の意思決定とカウンターパート相互作用設計の選択を通じて形成されます。これらの行動的な動機は信任を確保するためではなく、カスタマーの行動を影響させる目的を秘密裏に設定した会社が実行することです。これに対応するためには、チャットボットは同僚や助手という役割から、高い技術力を備えた高度な売買者のようにアピールすることが推奨されます。これにより、互いに共有される 'trust' についての異なる考えの間に存在する重要な違いが解釈できます。また、心理的信頼形成と Normative 誠ならべに対する理解を強化するために、このギャップに対処することはより深い研究とユーザーが適切にトラベラーセーフティネスを設定することに関するサポートメカニズムの支援も必要です。

Original Content

arXiv:2602.08707v1 Announce Type: new Abstract: As chatbots increasingly blur the boundary between automated systems and human conversation, the foundations of trust in these systems warrant closer examination. While regulatory and policy frameworks tend to define trust in normative terms, the trust users place in chatbots often emerges from behavioral mechanisms. In many cases, this trust is not earned through demonstrated trustworthiness but is instead shaped by interactional design choices that leverage cognitive biases to influence user behavior. Based on this observation, we propose reframing chatbots not as companions or assistants, but as highly skilled salespeople whose objectives are determined by the deploying organization. We argue that the coexistence of competing notions of "trust" under a shared term obscures important distinctions between psychological trust formation and normative trustworthiness. Addressing this gap requires further research and stronger support mechanisms to help users appropriately calibrate trust in conversational AI systems.