Back to list
arxiv_cs_ai 2026年4月24日

大学学生の AI 使用開示意欲の促進・抑制経路:知・感情・欲求(CAC)的視角

Enabling and Inhibitory Pathways of University Students' Willingness to Disclose AI Use: A Cognition-Affect-Conation Perspective

Translated: 2026/4/24 20:18:16
ai-transparencyhigher-educationpsychological-safetycognition-affect-conationdata-privacy

Japanese Translation

arXiv:2604.21733v1 Announce Type: new 摘要: 人工知能(AI)が高学部の教育に統合されていくことにより、学生による AI 支援業務の透明性に関する重要な問題が提起されています。本研究では、知・感情・欲求(CAC)の枠組みに応用し、大学学生の AI 使用開示意欲の心理的メカニズムを調査しています。シークワレンシャル・エクスプラネントリ・ミックス・メソッドデザインを採用しました。定量フェーズでは、546 名の大学学生から調査データを収集し、構造化方程式モデルを使用して認知的情報、感情的反応、開示意図間の関係を分析しました。定性フェーズでは、22 名の学生との半構造化面接を実施し、定量結果をさらに解釈しました。結果は、心理的安全性が学生 AI 使用の開示意欲を顕著に増加させ、それを認知公正、教師支援、組織支援の認識が正向的に形作ることを示唆しています。逆に、評価恐怖は開示意図と心理的安全性を減少させ、スティグマの認識、不確実性の認識、プライバシー懸念によって強められます。定性の結果は、さらに制度的明瞭性と支援的な指導実践が開示を奨励し、一方で政策の曖昧さと否定的評価の恐怖が学生に慎重または戦略的な開示実践を招くことを明らかにしています。総じて、本研究は AI 使用開示を形成する促進的・抑制的な二重心理的メカニズムを強調し、高等教育における責任ある AI 透明性の促進のために支援的な制度的環境と明確な指導の重要性を強調しています。

Original Content

arXiv:2604.21733v1 Announce Type: new Abstract: The increasing integration of artificial intelligence (AI) in higher education has raised important questions regarding students' transparency in reporting AI-assisted work. This study investigates the psychological mechanisms underlying university students' willingness to disclose AI use by applying the Cognition--Affect--Conation (CAC) framework. A sequential explanatory mixed-methods design was employed. In the quantitative phase, survey data were collected from 546 university students and analysed using structural equation modelling to examine the relationships among cognitive perceptions, affective responses, and disclosure intention. In the qualitative phase, semi-structured interviews with 22 students were conducted to further interpret the quantitative findings. The results indicate that psychological safety significantly increases students' willingness to disclose AI use and is positively shaped by perceived fairness, perceived teacher support, and perceived organisational support. Conversely, evaluation apprehension reduces disclosure intention and psychological safety, and is strengthened by perceived stigma, perceived uncertainty, and privacy concern. Qualitative findings further reveal that institutional clarity and supportive instructional practices encourage openness, whereas policy ambiguity and fear of negative evaluation often lead students to adopt cautious or strategic disclosure practices. Overall, the study highlights the dual role of enabling and inhibitory psychological mechanisms in shaping AI-use disclosure and underscores the importance of supportive institutional environments and clear guidance for promoting responsible AI transparency in higher education.