Back to list
大規模言語モデルによる消費者製品推奨におけるジェンダーと人種バイアス
Gender and Race Bias in Consumer Product Recommendations by Large Language Models
Translated: 2026/3/15 7:05:09
Japanese Translation
arXiv:2602.08124v1 Announce Type: cross
要約: 大規模言語モデル(LLM)は消費者製品の推薦生成においてますます広く採用されているものの、それらが埋め込むあるいは増幅するジェンダーおよび人種バイアスの可能性についてはまだ十分に研究されていません。本論文は、LLM 生成の推薦におけるこれらのバイアスを調査する初号目の試みです。私たちはプロンプトエンジニアリングを活用し、様々な人種およびジェンダーグループに対して製品提案を引き出しました。そして、3 つの分析手法(Marked Words、サポートベクターマシン、ゼンセン・シャノン発散度)を適用してバイアスを特定し、定量化しました。私の研究結果は、人口統計グループに対する推薦に著しい差があることを明らかにし、より公平な LLM 推薦システムの必要性を強調しています。
Original Content
arXiv:2602.08124v1 Announce Type: cross
Abstract: Large Language Models are increasingly employed in generating consumer product recommendations, yet their potential for embedding and amplifying gender and race biases remains underexplored. This paper serves as one of the first attempts to examine these biases within LLM-generated recommendations. We leverage prompt engineering to elicit product suggestions from LLMs for various race and gender groups and employ three analytical methods-Marked Words, Support Vector Machines, and Jensen-Shannon Divergence-to identify and quantify biases. Our findings reveal significant disparities in the recommendations for demographic groups, underscoring the need for more equitable LLM recommendation systems.