Back to list
AIによる人間中心の評価:公正性、信頼性、一貫性及び透明性に関する学生からの洞察
Humanizing AI Grading: Student-Centered Insights on Fairness, Trust, Consistency and Transparency
Translated: 2026/3/7 9:04:04
Japanese Translation
この研究では、人工知能(AI)による成績評価システムの undergraduate computer science コースの学生たち(n = 27)に対する反応を調査し、ブロックベースプログラミングの最終プロジェクトに焦点を当てています。Jobin (2019)が提示した道徳的原則に基づき、AIによる評価における公平性、信頼性、一貫性、および透明性は比較されつつあります。AIによって生成されたフィードバックと、単独で審査された人間のフィードバックを比較しています。結果として発見される問題については、AIがcontextual understandingとpersonalizationについて、不足していることを懸念しています。我々は、equitable 且つtrustingなAIシステムに、人間の評価判断や柔軟性以及 empathyを見込み、人的監視下で補助的なツールとして存在させることを推奨します。本研究は、学生の声を増幅して、設計した教育環境におけるAIの人間中心化に焦点を当てた倫理中心の評価法への貢献を目指しています。
Original Content
arXiv:2602.07754v1 Announce Type: new
Abstract: This study investigates students' perceptions of Artificial Intelligence (AI) grading systems in an undergraduate computer science course (n = 27), focusing on a block-based programming final project. Guided by the ethical principles framework articulated by Jobin (2019), our study examines fairness, trust, consistency, and transparency in AI grading by comparing AI-generated feedback with original human-graded feedback. Findings reveal concerns about AI's lack of contextual understanding and personalization. We recommend that equitable and trustworthy AI systems reflect human judgment, flexibility, and empathy, serving as supplementary tools under human oversight. This work contributes to ethics-centered assessment practices by amplifying student voices and offering design principles for humanizing AI in designed learning environments.